未来社会の道しるべ

新しい社会を切り開く視点の提供

こんな人が日本のAIの最前線にいたのか

5月29日の新井紀子朝日新聞記事を読んで、失望しました。こんな人が国費の投じられた東ロボ(東大合格を目指すAI)プロジェクトのリーダーになれたのが不思議です。なお、東ロボは2016年に「東大合格は無理」とプロジェクトが終了しています。もっとも、「東大合格を断念」とマスコミは報道しましたが、新井は聞き間違いによる誤報だと言い訳をしています。東ロボが東大に合格できるほどの性能がなかったことは事実であり、合格を目指したのに合格できないままプロジェクトを終了させたのですから、「東大合格を断念」と報道されるのは妥当であり、それが事実であると私は考えます。私が新井の立場にいたら、「国費を使ったプロジェクトなのに、完遂できなくて申し訳ありません」と謝罪しています。

朝日新聞の5月29日の記事では、最近マスコミを賑わせているchatGPTについて、国立情報学研究所社会共有知研究センター長の新井が臆面もなく「子どもには使わせたくない」などと批判しています。私はchatGPTを使って自然な会話が成立していることに驚嘆した多くの現代人の一人ですが、東ロボについては触ったこともない多くの日本人の一人でもあります。だから、どうしても憶測は入りますが、chatGPTは東ロボと比べ物にならないほど優秀だと、ほぼ確信しています。東ロボはchatGPTのように自然な会話など、まず成立させられないでしょう。だから、もし私が新井と同じく国立情報学研究所社会共有知研究センター長なら、「はっきり言って、完敗です。東ロボはchatGPTの足元にも及びません。ただし、こちらが負けた最大の要因は、予算だと思います。向こうはこちらの〇倍も予算をつぎこんで、人手も〇倍です。他の職員も言っていますが、予算の増額がなければ、今後、日本はAI分野で勝つどころではなく、差を広げられるだけになるに違いありません」などと述べているでしょう。

しかし、国費を使ったプロジェクトで負けたことについては露ほども触れず、chatGPTでもまだ東大入試に合格できないことを次のように嬉々として述べています。

「2022年の東大入試で出た世界史の問題は、とてもいい問題でした。8個のキーワードを盛り込んで『8世紀から19世紀までのトルキスタンの変遷を600字以内にまとめなさい』という設問です。1千年の歴史を600字以内で、しかも人に伝わるように書くのは、相当高度な能力が求められます。この問題をchatGPTに解かせて代々木ゼミナールの先生に採点してもらったら、0点でした。事実関係も違ったし、示したキーワードも6個しか入れられませんでした」

「例えばchatGPTは『SDGsについてどう思いますか』といったモワッとした課題に対する答えは、得意なんです。5、6年前までは1千年の歴史をまとめるより、主体的な意見を述べることこそ人間がやるべき課題だ、と思われていました。でも主体的なことは、本当にその人がそう思っているのかどうかを検証できない。その人の能力を見極めるには、1千年の歴史をまとめる課題を出した方がいいのではないか。こういう能力を磨くことこそ、人間の課題としてすべきことだったのだと気づきました」

主客転倒とは、まさにこのことではないでしょうか。AIではなく、人間がやるべきことは「主体的に考えること」「意見を述べること」であることは普遍的事実でしょう。しかし、多くの人が驚いたように、chatGPTはそれができてしまいました。より正確には、chatGPTを含むAIはもちろん計算しかできず、「主体的に考えること」も「自分の意見を述べること」もできないのですが、それらができているように人間が勘違いするほどchatGPTは優秀でした。一方で、これまでAIの得意分野だと思われていた「要約」が現状のchatGPTだと苦手だったりしました。だから、「要約」こそ、人間がするべき仕事である、と新井は主張しています。また、東ロボも当然解けませんが、chatGPTが解けない問題だったから、いい問題だと新井は主張しています。

普通に考えて、「いい問題」かどうかは主観が入るので、人間が判断すべきで、AIが判断すべきではありません。まして、「AIが解けないから、いい問題」は本末転倒です。まず間違いなく、要約ですらAIができるようになる日も来ます。そうなっても、新井は「主体的に考える」や「意見を述べる」はAIに任せて、要約こそ人間がするべき仕事だといい続けるつもりでしょうか。上記の東大の問題をAIが解けるようになっても、2023年頃のchatGPTが解けなかったから、いい問題だと新井は主張しつづけるつもりなのでしょうか。

なにより、要約や、上記の東大の問題をAIができるようになる日を想像できないほど、新井はコンピュータに無知なのでしょうか。そんな時代が来ることは間違いないと私は予想します。場合によっては、これから10年以内に来るかもしれないとすら考えます。少なくとも私がchatGPTを使った印象では、そうです。なお、私のchatGTPから受けた印象は新井と正反対で、やはりAIは「要約」が得意で、「主体的には考えない」「意見は述べられない」でした。

ところで、新井はchatGPTでの完敗で正気を失くしたのか、「(人間は)幼児のころは『サル』として育てるのが正しいと思っています」と問題発言をしています。新井の名誉のために、その発言の前後についても載せておきますが、どこまで読んでも「サル」は道徳的に許されないとしか思えません。

「私に10代の子どもがいたら、(chatGPTを)使わせませんね。子どもにchatGPTを使わせることは、ユーチューブを使わせるのと同じ感覚です。例えばユーチューブでスタンフォード大学の最先端の授業を見て『こうなんだ』と勉強する子もいれば、他の子がゲームをする姿を見ているだけの子もいる。ユーチューブは可能性があるけど、多くの人にとっては可能性を奪う道具です。自分の子どもが使ってどちらの道に行くのか、『賭けをしますか』ということです」

「自分で暑さ寒さを感じるとか、こうすると転ぶんだなとか、昆虫が動く様子をずっと見て『動く』ということの統一的な原理を認識するとか。そういうことを、無言のまま学ぶ時期があると思うのです。その時期が十分にないと、その後の発達が難しくなるように人間はできているのではないでしょうか」

管理教育が自主性教育よりも有効なエビデンス」に書いたように、私も幼児ほど管理教育が有効だろうと考えていますが、さすがに人間の子どもを人権のないサルと表現すべきでないことはこれまでの人生で学んでいます。Wikipediaによると、新井は文部科学省科学技術・学術審議会総合政策特別委員会委員らしいですが、即刻、辞職させるべきではないでしょうか。文部科学省の官僚レベルなら、更迭されてもおかしくないほどの問題発言です。こんな発言を「専門家の参考になる意見」として載せる朝日新聞記者の倫理観も疑いたくなります。

上記の記事は「こんな人が日本のAIの最前線にいたのか」と失望させられると同時に、「こんな人が日本の文科省の政策に現在も関わっているのか」と失望させられもしました。私は日本の教育政策に関して、新井よりはまともな提言ができると思いますが、新井が文科省の政策委員会に加わって、朝日新聞でも専門家として意見を100回以上も聞かれるほど社会的評価を受けているのに、私がこんなブログで愚痴のような記事しか書けない差はどうして生じているのでしょうか。