見出し画像

AIで働き方はどう変わる?LLMの未来を情報処理学会が解説

※ この対談は2024年2月頃に実施しました

ChatGPTやClaudeなどの生成AIを仕事や日常で使うことが当たり前になってきました。この先数年で、働き方はますます変わっていくことが予想されます。

今回の記事では、自然言語処理(NLP)と大規模言語モデル(LLM)の専門家である関根聡さんと吉野幸一郎さんに、LLMがもたらす未来や最新の研究についてお聞きしました。

AIによる仮説生成と実験の自動化が進む中で、AIラボの重要性と人間との協業の必要性、LLMの進化がもたらす変化に対応するための研究者の姿勢、そして自然言語処理における倫理と安全性の課題など、対談は多岐にわたる内容になりました。

対談者紹介

関根 聡 / 理化学研究所 前NL研主査:
理化学研究所(RIKEN)の言語情報アクセス技術チームのリーダー。約30年間、自然言語処理(NLP)を研究。ニューヨーク大学で25年勤務後、楽天技術研究所の所長を5年間務める。現在、理化学研究所で7年目。情報学研究所の大規模言語モデル研究開発センター特任教授も兼任しており、LLMの安全性についての研究も進めている。シンボリックなアプローチから統計、ディープラーニングまで扱う。ナレッジグラフの作成や大規模言語モデル(LLM)のインストラクションの重要性を研究する。

吉野 幸一郎 / 理化学研究所 前NL研幹事:
理化学研究所(RIKEN)の知識獲得・対話研究チームリーダーであり、現NL研幹事。自然言語処理(NLP)と対話システムの専門家。奈良先端科学技術大学院大学で助教を務めた後、2020年から理化学研究所で研究。対話システム、感情ロボット、知識グラフの利活用に関する研究で多くの論文を発表。IEEE-ICASSP、ACL、SIGDIALなどの主要学術会議で委員を務め、対話システム技術チャレンジ(DSTC)の主催にも関わる。

ファシリテーター

今 雄一 / note株式会社 CTO、note AI cretive CEO:
1985年北海道生まれ。千葉大学大学院工学研究科修了。ディー・エヌ・エーにてソーシャルゲームのサーバーサイド開発業務と運用を経験した後、2013年9月にnote入社。2016年1月にCTO就任。noteの立ち上げから関わり、現在もインフラからフロントエンドまで幅広く対応。

ChatGPTの登場で30年続けた言語処理の研究を止めようか迷った

今:
note株式会社 CTOの今です。本日はよろしくお願いします。
今回はLLM(大規模言語モデル)についてお二人にお聞きしたいと思っています。話しやすいようにテーマをいくつか用意させていただきました。まずは、左上の「LLMの登場によって仕事の内容や進め方に変化があったのか?」というテーマから話を始めたいと思います。

対談に用意したテーマ一覧

今:
身近なところで言えば、生成AIによってプログラミングのサポートや議事録の生成など自動化が進み、日々の業務での変化を感じています。専門的にLLMを研究されているお二人は、研究内容やスタイルに変化を感じることはありますか?

吉野:
言語処理の分野はもちろん変化していますが、言語処理を活用して他の研究を進めることが増えています。最近では、ロボカップのような大会でも「ロボットのタスク処理にはLLMを使いましょう」という流れが強まっています。去年のロボカップでは、学部生中心のチームがLLMを使って受賞していました。

関根:
ロボカップにLLMが使われていたのは初めて聞きました。ロボットの制御にLLMが使われていたということですか?

吉野:
LLMはプランニングに大きく貢献しています。「AをやってBをやってCをやったら終わります」というような命令をLLMでパッと解けるようになりました。人間とロボットの翻訳をLLMで行っているイメージですね。今までの言語理解では、「〇〇の値が入力された」「〇〇のことを話している」などをすべて事前にロボットに覚えさせる必要がありました。しかし、人間からロボットへの指示がLLMでなんとなく変換できるようになり、言語理解が一気に楽になりました。

今:
今までは、言葉を理解するためにいろんな入力パターンを想定して手作りしていた部分が、かなり省力化できるようになったんですね。

吉野:
省力化もそうですが、「LLMでなんとなく変換できるようになった」「なんとなくLLMで動く」というような「なんとなく」の部分が大きいと考えています。

今:
なるほど。LLMの知識がなくても、プロンプトのテクニックがあればいろいろとできそうですね。

吉野:
最近だと、Few-Shotプロンプティングでいくつか例を与えると、それっぽく変換してくれます。そういうところはすごく強くなっていますね。

Few-Shotプロンプティングは、AIモデルに新しいタスクを教えるために、少数の具体例を示す技術です。例えば、テキスト翻訳のタスクでは、いくつかの翻訳例を提供します。これにより、AIは提供された例からパターンを学び、新しい入力に対しても同様の方法で対応できるようになります。この手法は、大量のデータを使わずに効率的にモデルを学習させるのに有効であり、迅速に新しいタスクに適応させることができます。

ChatGPTによるFew-Shotプロンプティングの解説

今:
言語処理をずっと研究し続けてきた関根さんはどうですか?研究内容の変化などはここ数年でありましたか?

関根:
僕は自然言語処理の研究を30年続けてきているんですが、ChatGPTが登場したときに研究を止めようかと思いました。

今:
ええ!?

関根:
ChatGPTはやっぱりすごくよくできているんですよ。僕らが研究している中に、常識推論というタスクがあります。これは、「コップを落としたら次は何が起こりますか?」などの問いに対して、「瓶が割れます」「空を飛びます」などのように次に起こる展開をLLMに予測してもらうタスクです。僕らの作った言語理解ではどれだけ頑張っても80点ほどの精度が限界でした。しかし、ChatGPTにやらせてみたらいきなり96点を取ったんですよね。

今:
96点!それは高いですね。

関根:
驚きました。ただ、色々とChatGPTを触っているうちに、「弱点がいっぱいあるな」「日本語で作らなきゃダメだな」ということにも気づきました。そこから過去の論文などを読み始め、日本のLLM構築に貢献しようと思ってインストラクションを作り始めました。

今:
まさにLLMの進化で働き方や研究自体が変わってきているんですね。今は「このプロンプトを入れると、回答の精度が上がる」というような話が一般化して当たり前になって語られるようになっていますよね。世の中へこれだけ浸透していること自体が驚きです。

国産の大規模言語モデルをつくる意義

関根 聡氏

今:
言語処理を研究しているお二人にぜひうかがいたいのですが、国産の大規模言語モデルを作るということについてはどういった見解をお持ちでしょうか?

関根:
私は作っていくべきだと考えています。透明性や安全性を考えたうえで、国産モデルを作っていかなければ、検索エンジンがGoogleにシェアを取られてしまったように、今度はOpenAIにすべてを持っていかれてしまうでしょう。

吉野:
あとは、原理をちゃんと理解して何で動くのかを知ることは非常に重要です。そこの研究を怠ってしまうと、すべてがブラックボックスになってしまいます。

関根:
僕らが自然言語の研究を続けている一つの理由は、「それがなぜ動くのか」を知りたいからです。自分が知りたいから研究をしているんですよね。

今:
技術者的にも何かを理解するには自分で作ってみるのが一番早いというのはありますよね。

関根:
実際に、我々はLLM-jpという1000人以上がいるグループで予算をとり、そこで175ビリオンのモデルの作成がすでに始まっています。

吉野:
一つの研究室レベルでは、モデルを作る研究はリソースも予算も全然足りません。我々が所属している理研は国内でも研究費用がある方だとは思いますが、それでも全然できないレベルです。みんなで集まってオープンにやることができるLLM-jpのような場所があることが重要だと思っています。

今:
そこまでいけるだけでも快挙だと思うんですが、国内でこの規模のモデルは他にないですよね?

関根:
それほど多くはないですね。日本の大手企業もLLMモデル制作に着手していますが、商業的に成功させるために、SLM(Small Language Model)として公開しているところがほとんどです。

吉野:
国内でも70ビリオンぐらいのモデル研究はありますが、商業として扱っているテキストの内容をすべて公開ベースでやるのは非常に難しい問題です。透明性や安全性を考えて、最初からすべてを公開ベースにして研究するのが大事だと考えています。

今:
たしかに一企業が作ろうと思うと、オープンとクローズドな情報が入り混じって、どこまでがOKなのかの判断も難しいですよね。

吉野:
そうですね。LLMの構成要素について考える際、現在テストしているデータが学習データに含まれてしまう懸念があります。また、公開されているベンチマークで高い精度を示す事例も多いですが、そのベンチマーク自体が学習データに含まれていることもあります。学習データに含まれている項目と含まれていない項目についてどの程度うまく対応できているかの議論が必要です。こういった背景から、オープンなモデルを開発する意義は非常に大きいと考えています。

安全なAIとは?倫理観が問われる問題

関根:
AIにおける安全性について考え始めると、倫理や政治といった領域にも関わってきます。日本だけではなく、アメリカやヨーロッパで生きる人々の価値観とも関連してきます。様々なことを考える中で、「我々は何を作りたいのか」という問いが浮かびます。

今:
「何を提供する」よりも「なにを提供しないか」が哲学的に問われそうですね。

関根:
しっかり考えないと、何を作っているのかがあやふやになります。研究目的でノウハウを蓄積するのは我々の仕事ですが、システムを作る際にはそれぞれにどういうポリシーがあるのかを考えていかなければなりません。答えは難しいですが、考えることが大切です。

今:
AIの用途によって、ガードを緩めたり逆に高めたりするような個別注文ができるべきではないかとも思っています。

関根:
何をやっても完全ではないですし、人間には千差万別の性格があるように、LMも様々な性格を持つものが出てくるでしょう。何が一番良いのかを言い切るのは非常に難しい問題です。

吉野 幸一郎氏

吉野:
LLMを実際の社会と結びつける研究も重要です。物理的にできることや法律的な制約を考慮しながら、LLMが出力する内容を適切にコントロールする必要があります。日本にはこの分野の専門家が少ないので、組織を作って議論を進める必要があります。

関根:
AIにおいて、医療や裁判などについては一定の規約があります。ただ、裁判官の手助けやお医者さんに薬を提案するシステムなどは、今後も増えていくでしょう。用途によってAIの機能や安全性が異なるため、それを作るためのノウハウが必要です。

今雄一:
そうですね。オープンなデータのリスクもありますしね。

関根:
実際に私たちは多くの企業と協力して、トレーニングデータを集めています。その過程で様々な応用のアイディアを得ているため、ドメスティックなシステムを作るためにはどういった方向性に進めばいいのかを考える機会が増えてきましたね。具体的な方法や最適化についてはまだ分からない部分も多いですが、いろいろなやり方でアプローチしていくことが必要です。

生成AIによってどんな未来になっていくのか?

今:
私のやっているプログラミングやシステム設計は、5年以内でかなり激変が起こるという肌感があります。承認が中心のタスクになっていく予感もしています。今後、開発などのやり方はどのように変わっていくと思いますか?

吉野:
開発や研究のやり方はどんどん変わっていくと思います。しかし、最終的にはツールとしてのAIをどう活用するかが大事であり、AIが出した仮説を人間が判断しなければいけません。ソフトウェア開発でも、AIがソースコードを提案してくれるようになっていますが、それがなぜ動いているのかを理解することが不可欠です。AIが生成した内容を理解して潜れるエンジニアがこれからは価値が上がると思いますし、逆にAIだけを使って表層的に作業する人はどんどん価値が下がっていくと考えています。

今:
おもしろいですね。我々の技術領域で言われていることと近いですね。使いこなせるということは、AIの評価ができるということですからね。

吉野:
これからは効率的な研究を進めるために、各社にAIラボのような部署ができていくのではないかと考えています。私の研究分野でも、仮説生成と実験の自動化が進んでいます。AIで化学の有機合成などの仮説を立てて、そのまま実験も自動化で行うサイクルで回すような未来が考えられます。

今:
弊社もnote AI creativeというAI特化の子会社を設立して力を入れているので、まさに……といった感じです。関根さんはどのように感じていますか?

関根:
今の議論と似ていますが、フレームワークや手順が決まっている作業はAIに置き換わっていくと考えています。ただ一方で、やはり正確性の判断をする仕事はなくならないでしょう。過度な期待に注意しつつ、LLMの限界を理解することが重要です。システムは具体的な結果や条件は提供しますが、間違えることがもちろんあります。

今:
なるほど。

関根:
正確性を担保するためには、信頼できる情報を人間が選んで使っていくなどの発展が必要です。AIに置き換えられない部分もありますので、我々が方向性を見定めて進めていくことが重要です。そういう意味では、真実性を担保するためにGPTとは異なる生成AIが増えていくかもしれません。

今:
LLMの出力に対する違和感を捉える嗅覚などは、人間特有のものかもしれません。これが研究を進める上で重要になっていくのですね。

LLMはあくまでツール。自分の興味関心を突き詰める

今:
いろいろ聞かせていただきありがとうございました。そろそろまとめにいこうと思うのですが、多くの研究課題がある中で、学生さんに向けて何かメッセージがありますか?研究テーマが突然変わることもあるので、それにどう対応すればいいかなど。

吉野:
LLMは便利なツールですが、目先の便利さにとらわれるだけではいけません。LLMの背後にある理論や基本的なセオリーを理解することが重要です。言語における分布仮説や情報理論などを理解しながら、使えるようにすることが大切です。そうした知識を蓄えていれば、この先の未来でも新しい技術が出ても困ることは少ないでしょう。

関根:
全く同感です。LLMはあくまでツールなので、次の技術が来ても対応できるように、自分の頭で考え続けることが重要です。新しいものの背後には積み上げられた知識があります。そうした積み上げを理解し、自分の次のステップを考えられる人が増えることが必要です。

今:
やはり生成AIの時代が来ても、本質的な部分は今までと変わりませんね。

吉野:
今が一番面白い時期だと思いますね。LLMでできることが格段に増えて、新たなことが可能になる時代が到来しています。今後も多くの応用例が出てくるでしょう。

吉野:
そういう応用を考えて、それが商売になりそうなら進んでみる。あるいは心理に関する研究だったり、人間知能について探求するなど、自分の興味を追求していくといいかもしれません。例えば、「なぜ人間は言語を使えるのか」とか「知能とは何か」を考えるのもいいかもしれません。若い人には、人生のライフワークを見つけてほしいです。自分自身の興味を探求してほしいです。

関根:
私も30年間研究を続けてきましたが、目の前のことにとらわれず、面白いと思ったことには全力で取り組むことが大切だと感じています。研究が楽しいと感じる人が研究者に向いていると思います。そして、その楽しさが研究を進展させる原動力になります。

今:
まさに研究者という姿勢ですね。

関根:
楽しいという感情が非常に重要です。エンジニアや営業、政治など、自分が楽しいと思うことをすれば良い。そして、それが日本の構造を変える力になると思います。ただ単に受験勉強で良い大学に行くことが目標ではなく、自分が何をやって楽しいか、何をして社会に貢献したいか、あるいは自分の楽しみのために何をするかを考えるべきです。そういう考えを持ち、自身の興味を追求する人たちが増えれば、日本も元気になると思います。

今:
どうもありがとうございます。私も日々、生成AIで業務時間を短縮する機能を開発するなどのプレッシャーを感じていますが、こうした話を聞いて初心に戻ることができました。皆さんの話から、多くのことを学ばせていただきました。

▼noteは情報処理学会 / 人工処理学会に協賛しています

▼noteの技術記事をもっと読みたい方はこちら


みんなにも読んでほしいですか?

オススメした記事はフォロワーのタイムラインに表示されます!