【技術】 後藤 弘茂氏「第3世代のディープラーニングプロセッサはモデル圧縮技術が鍵」 [ですとろん★]
■ このスレッドは過去ログ倉庫に格納されています
0001ですとろん ★
垢版 |
2020/07/17(金) 12:15:21.88ID:bcTL095c9
後藤 弘茂 (Hiroshige Goto)2020年7月17日 06:55
ディープラーニングプロセッサは、まだ進化の途上にあり、人類進化にたとえるなら、現在は猿人から原人に進化したばかりの段階にある。ホモサピエンスレベルへの進化には、まだワンステップ以上が必要となる。
 2018年のプロセッサ学会「Hot Chips」のチュートリアルで、MIT(Massachusetts Institute of Technology)のSong Han氏(Assistant Professor, MIT EECS)は、ディープラーニングプロセッサの進化のスライドを示した。Han氏は、元スタンフォード大学でNVIDIAなどと共同で行なった「Deep Compression」の研究の中心人物だった。
以下ソース
https://pc.watch.impress.co.jp/docs/column/kaigai/1265701.html
0003不要不急の名無しさん
垢版 |
2020/07/17(金) 12:18:17.74ID:5Xgl6HMb0
そういえば石川遼って英語のCMですら見なくなったな
0004不要不急の名無しさん
垢版 |
2020/07/17(金) 12:18:55.96ID:jCQ7gHZj0
高卒にもわかるように言って
0006不要不急の名無しさん
垢版 |
2020/07/17(金) 12:22:36.23ID:i3F+jpZv0
今日のGoToスレはここかな?
0007不要不急の名無しさん
垢版 |
2020/07/17(金) 12:22:47.55ID:eniaTaDv0
つまり不要な探査ルートの切り捨て精度が上がらないとダメってことか
0008不要不急の名無しさん
垢版 |
2020/07/17(金) 12:25:23.45ID:UUNAQ91x0
単純にディープラーニングは最適化の余地がまだまだあるよって話っぽい
今1000のデータと1億回の計算で出している結果は
  100のデータと100万回の計算で出せるはず
みたいな話でディープラーニングで新しい事が出来るって話じゃないっぽい
0010不要不急の名無しさん
垢版 |
2020/07/17(金) 12:29:26.79ID:0/1K2TVN0
>>4
クズは切り捨ててしまった方が世の中はシンプルで美しい
0012不要不急の名無しさん
垢版 |
2020/07/17(金) 12:31:23.47ID:72aoifbV0
今食いつけば 日本の半導体メーカーも復活できるかも?
0013不要不急の名無しさん
垢版 |
2020/07/17(金) 12:32:47.67ID:O/hkPArr0
圧縮、伸長、暗号化支援、ハッシュ計算、TCAM、SIMD
コプロセッサならこれぐらいは欲しいな
0014不要不急の名無しさん
垢版 |
2020/07/17(金) 12:34:01.74ID:SpBbgpx+0
ソフトがな、日本はついていけない。かつ、ソフトはハードを選ぶ。
0015不要不急の名無しさん
垢版 |
2020/07/17(金) 12:35:30.16ID:82OF3ZQV0
マンハッッッン
0016不要不急の名無しさん
垢版 |
2020/07/17(金) 12:36:33.04ID:PFJWpILu0
石川遼「僕も愛用しています」
0017不要不急の名無しさん
垢版 |
2020/07/17(金) 12:36:33.51ID:i3F+jpZv0
>>12
20年遅い
ソフト面でもハード面でも
0019不要不急の名無しさん
垢版 |
2020/07/17(金) 12:42:06.81ID:XgolYA5Z0
つまり、どういうこと?
0021不要不急の名無しさん
垢版 |
2020/07/17(金) 12:43:46.30ID:PwM7IjVh0
>>12
ワロタwww
0023不要不急の名無しさん
垢版 |
2020/07/17(金) 12:50:19.88ID:xMswDzCE0
>>11
うるさそう
0024不要不急の名無しさん
垢版 |
2020/07/17(金) 12:50:20.21ID:DhcuMfbg0
人工知能研究は1960年頃から行われていたが、長らく冬の時代が続いていた。

2006年にジェフリー・ヒントンによって積層自己符号化器(スタックトオートエンコーダ)など多層にネットワークを積み重ねる手法が提唱され、さらに2012年には物体の認識率を競うILSVRCにおいてジェフリー・ヒントン率いるトロント大学のチームがディープラーニングによって従来の手法(エラー率26%)に比べてエラー率17%と実に10%もの劇的な進歩を遂げたことが機械学習の研究者らに衝撃を与えた。

その後もILSVRCでは毎年上位はディープラーニングを使ったチームが占めるようになり、エラー率は2014年時点で5%程度にまで改善した[9]。

ディープラーニング(深層学習)の登場と2010年代以降のビッグデータの登場により、一過性の流行を超えて社会に浸透して行った。


今日のディープラーニングにつながる世界的に最も先駆的研究として、日本の福島邦彦(NHK放送技術研究所、その後大阪大学基礎工学部生物工学科)によって1979年に発表されたネオコグニトロン[10][11]が挙げられる[12][13]。
ネオコグニトロンには自己組織化機能があり、自ら学習することによってパターン認識能力を獲得(概念の形成)していく。応用例として、福島らは手書き文字データベース(ビッグデータ)から自己学習によって手書き文字認識能力(各文字の概念)が獲得されることを実証した。

しかし、当時は「手書き文字認識方式の一つ」と誤解され、その重要性についての認識が世間に広がらなかった。
0028不要不急の名無しさん
垢版 |
2020/07/17(金) 12:57:38.63ID:R7SpHvVK0
PFLOPSの演算器を動かしても虫の視神経にすら追いついていないのが現実
0030不要不急の名無しさん
垢版 |
2020/07/17(金) 12:59:21.81ID:bpWvHzyT0
>>16
それだ!なんか聞いた事あると思ってた
0031不要不急の名無しさん
垢版 |
2020/07/17(金) 13:01:17.77ID:ymcb4lb00
後藤や望月、安田の記事はアカン
0033不要不急の名無しさん
垢版 |
2020/07/17(金) 13:10:04.38ID:lMP46Ylg0
2018年のプロセッサ学会「Hot Chips」のチュートリアルで、MIT(Massachusetts Institute of Technology)のSong Han氏(Assistant Professor, MIT EECS)は、ディープラーニングプロセッサの進化のスライドを示した。Han氏は、元スタンフォード大学でNVIDIAなどと共同で行なった「Deep Compression」の研究の中心人物だった。

Song Han氏
http://imgur.com/n3dslSn.jpg

中華系アメリカ人? 韓国系アメリカ人?
0034不要不急の名無しさん
垢版 |
2020/07/17(金) 13:11:03.31ID:dRjxE5py0
元記事読んだけど、すでに実用化された当たり前のことしか言ってないように思える
そもそもモデル圧縮なんて、組み込み領域では日常茶飯事だろ
大規模モデルには固有の問題があるのかもしれないが
0035不要不急の名無しさん
垢版 |
2020/07/17(金) 13:13:17.34ID:dRjxE5py0
そもそもスレタイがおかしい
確かに後藤さんの連載記事だけど、この内容を話したのはMITの研究者だろ
0036不要不急の名無しさん
垢版 |
2020/07/17(金) 13:13:21.37ID:rx+5kiwK0
>>1
君の深層を学習するよ。ほら潜ってくぞー。
0037不要不急の名無しさん
垢版 |
2020/07/17(金) 13:30:57.73ID:08S9jKAr0
なんかよく分からないけどそういう技術が必要になるって
AIじゃなくてまたアルゴリズムの世界に戻ってる感じがするんだけど
どうなん?
0038不要不急の名無しさん
垢版 |
2020/07/17(金) 13:35:57.76ID:wzO1UJH+0
>>37
AIを動かすのに必要なアルゴリズムだろ?
AIでAIを超える知能は生み出せてないんだから発展させるのに人の力が必要なのは当然
0039不要不急の名無しさん
垢版 |
2020/07/17(金) 13:42:06.49ID:KDAZU8pc0
ごく当たり前の事しか言ってないだろ。

というか、何だよこの中国人だか朝鮮人だかの研究者も。

AI研究者って過去の計算機科学が通ってきた道をもったいぶって説明してるような所があるからね。

モンテカルロシミュレーションの計算効率向上のテクニックと似たようなもんだろ、これも。
0042不要不急の名無しさん
垢版 |
2020/07/17(金) 14:20:42.25ID:iMjRd8PG0
アメリカとカナダのコンピュータと数学分野はほぼほぼ中国だぞ
ここ20年の数学オリンピック代表の写真見るとわかる
0043不要不急の名無しさん
垢版 |
2020/07/17(金) 15:12:24.16ID:ywQkJGdT0
>>8
この記事はモデルの圧縮の話で、少ないデータで学習するとか言うのはよく聞くけど別の話題
0044不要不急の名無しさん
垢版 |
2020/07/17(金) 15:34:46.37ID:A04GJApO0
>>3
「(英語なので)なに言ってるか分からないので野次られても平気だった」
これを言ってしまったからなぁw
0045不要不急の名無しさん
垢版 |
2020/07/17(金) 15:35:01.15ID:3+Pvgefd0
プロセッサは原人かも知れないがソフトはネズミのままだったりして
0047不要不急の名無しさん
垢版 |
2020/07/17(金) 15:37:21.82ID:pmhvqrmY0
Nvidia一強
0051不要不急の名無しさん
垢版 |
2020/07/17(金) 17:41:35.68ID:f3FSoXGK0
>>35
おまえな、くだらんことを噛み付くな
元記事の見出しそのままだろうが
何もおかしくねーよ
アホは寝てろや
0052不要不急の名無しさん
垢版 |
2020/07/17(金) 21:13:15.89ID:J7f1QYJe0
人間も脳の半分なくなっても平気だったりするからねー
0053不要不急の名無しさん
垢版 |
2020/07/17(金) 21:17:08.54ID:mtW5LrKF0
言葉の意味は分からんがとにかくすごい自信だ
0055不要不急の名無しさん
垢版 |
2020/07/22(水) 09:03:40.21ID:SPSBvuWf0
BERTが軽量化してALBERTになったのも
モデル圧縮技術だな

ベクトルの素因数分解トリック
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況