東大、ChatGPTなどの生成系AIに対して見解を発表

東京大は2023年4月3日、対話型AI「ChatGPT」などの生成系AIについて、「人類はこの数ヶ月でもうすでにルビコン川を渡ってしまったのかもしれない」という見解を表明して話題になっています。公式ホームページでは「教育に対する影響」だけでなく、「社会に対する影響」や「本学の学生や教職員はどう対応したらよいか」についても言及されています。教育関係者は原文をチェックしておきましょう。


【スポンサードリンク】

生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について

こちらが東大の見解の目次になります。

何ができるか、「検索」ではなく「相談」するシステム

仕組み上、書かれている内容の信憑性には注意が必要

機密情報や個人情報などを安易にChatGPTに送信することは危険

将来著作権や文書を用いた試験・評価に問題が発生する可能性がある

社会に対する影響

本学の学生や教職員はどう対応したらよいか

本学の学生や教職員はどう対応したらよいか

しかしながら、生成系AIを有害な存在であるとして利用禁止する(イタリア、米国の事例など)だけでは問題は解決しません。秘密裏に開発が進行する可能性や、地下で悪用されることも懸念されます。人類はこの数ヶ月でもうすでにルビコン川を渡ってしまったのかもしれないのです。むしろ、どのようにしたら問題を生じないようにできるのか、その方向性を見出すべく行動することが重要であると思います。何にせよ、大きな変革の時期に来ていると考えられますので、本学構成員の皆様は、この変化を傍観するだけでなく、大規模言語モデルに「創発」(能力が突然飛躍的に向上すること)が起きた3原因を考察したり、生成系AIがもたらす様々な社会の変化を先取りし、積極的に良い利用法や新技術、新しい法制度や社会・経済システムなどを見出していくべきではないでしょうか。今後、生成系AIの活用法や問題点、改善策などについて、学内で(本部・教育システム整備検討WG、情報システム本部などを介して)議論の機会を設ける予定です。このような対話を通じて、是非社会とともにより良い世界の構築に貢献して頂きたいと願っています。