memo/2015-10-13
をテンプレートにして作成
[
トップ
] [
新規
|
一覧
|
単語検索
|
最終更新
|
ヘルプ
|
ログイン
]
開始行:
**To: [[tortoise3]]ユーザ From: takataka [#bd0b8fbe]
現在の [[tortoise3]] の環境では,
gnome-system-monitor
というコマンドで,Mac でいうところのアクティビティモニタのようなものが起動します.X を使ってるので,ssh -Y で接続してる状態で.
山田君から,「岡田山田の二人が同時に TITAN X と Tesla を使うプログラムを実行すると,すごく遅くなった」と聞きましたが,それが何のせいなのか調べるため,システムモニタの出力を観察しながらプログラムを動かしてみたらよいでしょう.何も二人がかりである必要はないので,ひとりで2つを同時に使ってみたらよいです.
- 単に岡田山田のプログラムがメモリを食うもので,2つ同時に動かすとスワップが発生して遅くなっただけ
だったら,プログラムや実験条件の見直しでなんとかなりますが,
- ふたりとも ILSVRC のデータを使ってるので,ディスクIOが頻発する.同時に動かすとディスクIOが輻輳して遅くなる
- メインメモリ と GPU メモリ間の転送が激しいので,2つ同時に動かすとそこが輻輳してる
とかだったら,2つ同時に使うのは諦めるしかないかも…
**To: [[b/2015]] From: takataka [#ce6024d0]
「ゼミクラス写真撮影」については,全員から連絡をもらえていないため,まだ日程を決められていません.今回の期間中の撮影は見送ることになりそうです.日程の連絡をくれたみなさん,その中でも特に研究が進んでないみなさん,都合が悪いといった日時以外は大学にこれますよね? 復活を期待しています.
[[b/2015/fall]]
:[[b/2015/久保]]| 復活を期待しています
:[[b/2015/神谷]]| その調子で.二分木クラス作成の参考までに,超カンタンバージョンの連結リストのためのクラスのサンプルを書いたので,下につけときます.
:[[b/2015/作村]]| 復活を期待しています
:[[b/2015/高木]]| 復活を期待しています
:[[b/2015/山田]]| その調子で.
:[[b/2015/横井]]| 復活を期待しています
:[[b/2015/吉岡]]| 実験結果の報告ありがとう.いくつか気になる点をコメント.
-- FAR vs FRR のグラフを見たいです.見せにくる or [[Google Drive>https://drive.google.com/open?id=0B8OrLAOIArf4fmM3YlNWUjcwdnd4Y0pTcmZ6XzdRR1VnS3BoMWxUUEZiS19MUXdERC13MDA]] を利用してくれるとよいでしょう
-- 結果を見るとしきい値を等間隔で選んでますが,以下の辺りで FAR, FRR の値が急激に変化してますよね.間がすご〜く気になりませんか? この辺もっと細かくしきい値を変えてみるべきです.できれば高橋に言われなくてもそれが気になる人になってほしい.
#pre{{
0.29 0.00000 44.15690 39.81786 0.88810 6.79912 5.62235
6.29 2.06868 0.00000 0.20328 9.05861 0.17660 1.94484
12.29 48.40712 0.00000 4.75668 36.32327 0.00000 7.23126
}}
-- 正則化の実験については,引き続き調べてください.
---しきい値は decay させちゃだめですが,大丈夫?
---データ数の影響を除くために,「データ数で割らずにデータごとの値の和をとっただけの」交差エントロピー を &mathjax{L};, 重みベクトル(しきい値含まず)を &mathjax{\textbf{w}}; としたとき,
#mathjax( \frac{1}{N}L + \frac{\lambda}{2} ||\textbf{w}||^2 );
をコスト関数とするのがよいでしょう.
---正則化のパラメータ &mathjax{\lambda}; は,問題に応じて調節しないといけない変数です.学習データからそれを決めるためには,実際には「クロスバリデーション」等の方法によることになるんですが,まずは,&mathjax{\lambda}; を変えると学習・テストのFAR,FRRがどのように変化するか,いろいろ値を変えて調べてみたらよいでしょう.
---そうすると,&mathjax{\lambda}; を変える度に FAR vs FRR のグラフを描くはめになるので面倒です.しきい値を変えて,FAR と FRR が等しくなるポイントを見つけて,その時の FAR = FRR の値でもって評価する,というやり方もあります.
:[[b/2015/吉田]]| 復活を期待しています
#pre{{
### Node class
#
class Node:
def __init__( self, val ):
self.val = val
self.next = None
### creating the linked list consisting of 10 nodes
#
head = Node( 1 )
p = head
for i in range( 2, 11 ):
p.next = Node( i )
p = p.next
### printing the values contained in the list
#
p = head
while p != None:
print p.val,
p = p.next
print
}}
終了行:
**To: [[tortoise3]]ユーザ From: takataka [#bd0b8fbe]
現在の [[tortoise3]] の環境では,
gnome-system-monitor
というコマンドで,Mac でいうところのアクティビティモニタのようなものが起動します.X を使ってるので,ssh -Y で接続してる状態で.
山田君から,「岡田山田の二人が同時に TITAN X と Tesla を使うプログラムを実行すると,すごく遅くなった」と聞きましたが,それが何のせいなのか調べるため,システムモニタの出力を観察しながらプログラムを動かしてみたらよいでしょう.何も二人がかりである必要はないので,ひとりで2つを同時に使ってみたらよいです.
- 単に岡田山田のプログラムがメモリを食うもので,2つ同時に動かすとスワップが発生して遅くなっただけ
だったら,プログラムや実験条件の見直しでなんとかなりますが,
- ふたりとも ILSVRC のデータを使ってるので,ディスクIOが頻発する.同時に動かすとディスクIOが輻輳して遅くなる
- メインメモリ と GPU メモリ間の転送が激しいので,2つ同時に動かすとそこが輻輳してる
とかだったら,2つ同時に使うのは諦めるしかないかも…
**To: [[b/2015]] From: takataka [#ce6024d0]
「ゼミクラス写真撮影」については,全員から連絡をもらえていないため,まだ日程を決められていません.今回の期間中の撮影は見送ることになりそうです.日程の連絡をくれたみなさん,その中でも特に研究が進んでないみなさん,都合が悪いといった日時以外は大学にこれますよね? 復活を期待しています.
[[b/2015/fall]]
:[[b/2015/久保]]| 復活を期待しています
:[[b/2015/神谷]]| その調子で.二分木クラス作成の参考までに,超カンタンバージョンの連結リストのためのクラスのサンプルを書いたので,下につけときます.
:[[b/2015/作村]]| 復活を期待しています
:[[b/2015/高木]]| 復活を期待しています
:[[b/2015/山田]]| その調子で.
:[[b/2015/横井]]| 復活を期待しています
:[[b/2015/吉岡]]| 実験結果の報告ありがとう.いくつか気になる点をコメント.
-- FAR vs FRR のグラフを見たいです.見せにくる or [[Google Drive>https://drive.google.com/open?id=0B8OrLAOIArf4fmM3YlNWUjcwdnd4Y0pTcmZ6XzdRR1VnS3BoMWxUUEZiS19MUXdERC13MDA]] を利用してくれるとよいでしょう
-- 結果を見るとしきい値を等間隔で選んでますが,以下の辺りで FAR, FRR の値が急激に変化してますよね.間がすご〜く気になりませんか? この辺もっと細かくしきい値を変えてみるべきです.できれば高橋に言われなくてもそれが気になる人になってほしい.
#pre{{
0.29 0.00000 44.15690 39.81786 0.88810 6.79912 5.62235
6.29 2.06868 0.00000 0.20328 9.05861 0.17660 1.94484
12.29 48.40712 0.00000 4.75668 36.32327 0.00000 7.23126
}}
-- 正則化の実験については,引き続き調べてください.
---しきい値は decay させちゃだめですが,大丈夫?
---データ数の影響を除くために,「データ数で割らずにデータごとの値の和をとっただけの」交差エントロピー を &mathjax{L};, 重みベクトル(しきい値含まず)を &mathjax{\textbf{w}}; としたとき,
#mathjax( \frac{1}{N}L + \frac{\lambda}{2} ||\textbf{w}||^2 );
をコスト関数とするのがよいでしょう.
---正則化のパラメータ &mathjax{\lambda}; は,問題に応じて調節しないといけない変数です.学習データからそれを決めるためには,実際には「クロスバリデーション」等の方法によることになるんですが,まずは,&mathjax{\lambda}; を変えると学習・テストのFAR,FRRがどのように変化するか,いろいろ値を変えて調べてみたらよいでしょう.
---そうすると,&mathjax{\lambda}; を変える度に FAR vs FRR のグラフを描くはめになるので面倒です.しきい値を変えて,FAR と FRR が等しくなるポイントを見つけて,その時の FAR = FRR の値でもって評価する,というやり方もあります.
:[[b/2015/吉田]]| 復活を期待しています
#pre{{
### Node class
#
class Node:
def __init__( self, val ):
self.val = val
self.next = None
### creating the linked list consisting of 10 nodes
#
head = Node( 1 )
p = head
for i in range( 2, 11 ):
p.next = Node( i )
p = p.next
### printing the values contained in the list
#
p = head
while p != None:
print p.val,
p = p.next
print
}}
ページ名: