bioshok(INFJ) Profile picture
Feb 25 6 tweets 2 min read
論文を読むと1.4*10^12tokenでLLaMAは学習されているらしく、これは世界最大レベルのデータセットの学習量(Chinchillaと同程度レベル)ですね。最近「コードの学習」が推論能力の強化に効いているのではないかという仮説があ理、LLaMAはざっくり200GBのgithubデータを正味学習している気がしていて、
PaLMは100GB程度、Chinchillaは300GB程度と推定されると考えると、以下のMMLUのスコアで同程度のパラメータ(70B,65B,62B)同士を比べるとChinchilla>LLaMA>PaLMとなるのが綺麗に説明つくかもしれない。
それと13BパラメータがGPT3レベルの規模を様々なタスクで超えているのは単純にGPT3が3*10^11tokenで学習しているのに対して、13Bパラメータには10^12tokenで学習が施されているかつソースコードの学習が含まれているから性能が高くなっている気がする。
それとMATH、GSM8kという中高生の数学データセットでLLaMAの33BはPaLM66Bにどちらにも勝ってるし、学習データ量増やしたり、ソースコード学習量増やすことで右図のように損失はへるし下流タスクも今後性能上がり続ける可能性が小規模モデルでもあり得る。
ちなみに世界中に存在する高品質言語データはおおよそ10^13token程度と予想されているので、あと1桁我々人類はスケーリングを言語モデルで続けることが可能だと思われる。

おそらく後1年くらいはスケーリングローというか今の密な言語モデルのパラダイムが続き、
スケールに加えて様々なプロンプトの工夫やら強化学習やら微調整やら外部ツール活用やら他何らかのアルゴリズムの改善やら+そこに高速化手法やメモリ消費の削減手法が組み合わさることでもう一段階進化すると思われる。初代GPT3->ChatGPTくらいの主観的変化かなと個人的には考えている。

• • •

Missing some Tweet in this thread? You can try to force a refresh
 

Keep Current with bioshok(INFJ)

bioshok(INFJ) Profile picture

Stay in touch and get notified when new unrolls are available from this author!

Read all threads

This Thread may be Removed Anytime!

PDF

Twitter may remove this content at anytime! Save it as PDF for later use!

Try unrolling a thread yourself!

how to unroll video
  1. Follow @ThreadReaderApp to mention us!

  2. From a Twitter thread mention us with a keyword "unroll"
@threadreaderapp unroll

Practice here first or read more on our help page!

More from @bioshok3

Feb 24
Googleが画像編集AI(Imagen Editor)でRT-1(視覚、言語条件付きロボットAI)の学習データセットを拡張する手法「ROSIE」を発表。Imagen Editorで作られた新たなタスクの学習以下最初の図(例えば引き出し=>台所のシンクに変更し、そこにコーラを入れる)や次の図(他注意を散らす物体)に堅牢に。
手法は以下の図。例えばタスクが「コーラを引き出しに入れる」だったら、その中からコーラと引き出しをセグメンテーションし、次に画像編集AIでセグメンテーションマスクとプロンプトを入力として、画像全体の一貫性をできるだけ保ちつつ新たな視覚入力を生成する。
一週間前にもこの手のロボットの環境のデータセット拡張手法「GenAug」がMETAから出ている。これはRosieとは違い、3次元オブジェクトメッシュを用意or深度センサーで取得したオブジェクトを条件にテキスチャを生成AIで生成して様々な環境データセットを拡張している。
Read 5 tweets
Feb 8
短期
・Google
スマホAIで覇権
広告モデルかサブスクか検索AIによるサービス利益の手数料かで儲ける?
スマホ検索AI
・Microsoft
PC内AIシステムと法人向けAIで勝利?
PC検索AI

中長期
・Google、Amazon
汎用産業ロボット
・テスラ
汎用人型ロボット
・Microsoft、メタ
メタバース

アップルわからん
イヤホン系×AIでアップルは躍進するかもしれない。
あとスマートスピーカーはAmazonやGoogleが強いかもね。
Read 4 tweets
Feb 7
ついにChatGPTよりも強力で、特に検索用にカスタマイズされたモデルが組み込まれたBing発表!ユーザーが見ている Web ページやドキュメントを要約し質問、複雑な検索も可能。
本日、デスクトップでの限定プレビューとして利用できる。今後数週間で、プレビューを数百万にスケールする予定。 Image
theverge.com/2023/2/7/23587…
ここにも使い方が書かれている。
theverge.com/2023/2/7/23588…
ここにリアルタイムにMicrosoftの発表を記者がメモした投稿が見える。
Read 5 tweets
Feb 7
Microsoftは本日、レドモンド本社でサプライズイベントを開催していて今開催されているっぽいぞ!
なんかゾクゾクとタイムラインで流れてくる。
theverge.com/2023/2/7/23588…
ここでリアルタイムで記者?のコメントが見える。
記者の発言を流す。
「Gap Inc.の四半期報告書の15ページにわたるPDFを見ているのです。「ワンクリックでサイドバーを開いて...。Edgeのチャットを使って、今見ているページの重要なポイントを教えてくれるんです。PDFを読み取って要約してくれるんです。とてもクールです。」
Read 29 tweets
Feb 7
いやー本当にそうなんだよな。
大御所達がこのAIトレンドは産業革命だと言ってくれてるから、普通に考えてAIはビジネスチャンスというスケールもありつつそれをこえて国家安全保障、わんちゃん人類に対する安全保障にもなりえる。まーひとまずは国家安全保障の問題だと認識する必要ありそう。
日本がビジネス的に遅れるからAIトレンドに乗っかろうとかそういう次元ではない。国家安全保障上の問題になるので、取り組もうくらいの勢いが必要な気がする。
僕が技術トレンドを外挿したり、若干積極的にAIトレンドを推定して(まぁある程度仮説やレポートや論文は元にして)若干センシティブに未来は変わるって言っているのも、学術的厳密性のスケールとは別に国家安全保障上の問題や社会課題の問題に対応するスケールがあるからというのもあるかも。
Read 4 tweets
Feb 7
全く言語学には詳しくはなかったけど、ことばには意味の構成性というのがあるらしく、現状の大規模言語モデルの意味の分散表現パラダイムとはまた別だからノームチョムスキーは現状の言語モデルは人間の言語のエミュレートにはならないと言っているのかも。

※素人呟き

この方の動画はめちゃくちゃ好きでよく見ているんだけど、大規模言語モデルの限界についても示唆されている。ここで紹介されている構成的汎化に関する論文ではスケーリングが微調整だと飽和するとある一方で、プロンプトチューニングや文脈内学習
arxiv.org/abs/2205.12253
だと正のスケーリングになっている。
だから簡単にいうとプロンプト工夫したりプロンプトチューニングしたりすれば規模の拡大でまだ性能が向上する余地はあるのではないかという風にも読める。
Read 4 tweets

Did Thread Reader help you today?

Support us! We are indie developers!


This site is made by just two indie developers on a laptop doing marketing, support and development! Read more about the story.

Become a Premium Member ($3/month or $30/year) and get exclusive features!

Become Premium

Don't want to be a Premium member but still want to support us?

Make a small donation by buying us coffee ($5) or help with server cost ($10)

Donate via Paypal

Or Donate anonymously using crypto!

Ethereum

0xfe58350B80634f60Fa6Dc149a72b4DFbc17D341E copy

Bitcoin

3ATGMxNzCUFzxpMCHL5sWSt4DVtS8UqXpi copy

Thank you for your support!

Follow Us on Twitter!

:(