■Online Journal NAGURICOM
沢栄の「さらばニッポン官僚社会」
第221章 インターネットを超える革命か/チャットGPTの衝撃
(2023年6月1日)

脅威のAIブレイクスルー

AIを使って対話形式で文章や画像を自動生成する「チャットGPT」が、世界中から注目を集めている。利用者の質問に自然な言葉で高精度の内容で応答する対話能力が、世界に驚嘆の声を呼び起こした。
米新興企業「オープンAI」が昨年11月に無料公開し、2カ月足らずで利用者が1億人を超えた。提携先で事実上の親会社、米マイクロソフトによる数10億ドルに上る追加投資計画を受け、3月には最新モデル「GPT-4」を発表した。

実際に試してみようと、質問を次のように入力すると、たちまちすらすらと語り言葉で応答した。―2023年の日本の食のトレンドは?(答え)「以下のようなものが挙げられます。1.ベジタリアン・ビーガン食品 2.自然派食品 3.和食の再評価 4.オンラインでの食品販売 5.デリバリーサービスの拡大」
と5つのトレンドを挙げ、その理由を明らかにした。「和食の再評価」では、「世界遺産にも登録された和食が再評価され、外国人観光客からの需要が高まっています。また、和食のヘルシーさや美容効果が注目されています」と説明した。「和食」のユネスコ文化遺産登録は2013年12月。以後、和食の評価が高まり、海外の日本食レストラン、日本の食品輸出、インバウンドが急増したのは確かだ。精度の高い回答が、入力後1秒ほどでなめらかに表示されるのを見て、「こりゃー何だ?」と度肝を抜かれた。

チャットGPT出現の衝撃は巨大だ。その比類なき性能と普及スピードに、オープンAIの共同創設に加わった実業家イーロン・マスク氏やAI専門家らが「人類社会に深刻なリスクをもたらす」として3月、「少なくとも6カ月間の開発一時停止」を呼び掛ける公開書簡を発表。賛同署名者は2万7000人を超えた。一方、イタリアのデータ保護当局は3月、チャットGPTへのアクセスを一時停止し、膨大なデータ収集が個人情報保護法に違反する可能性があるとして調査を開始したと発表した(改善策を受け4月に停止を解除)。不安と警戒の声も早々と沸き起こったのだ。

<写真>OpenAIのサム・アルトマンCEO

出典:https://www.euronews.com/


戸惑う大学 爆発する普及

日本で激しく反応したのが教育現場だ。自動応答の精度があまりに高く、人間が書いたように自然な文章なので、レポートとか試験に使われても、教員側はGPTからの引用と見抜けない。てっきり本人が書いたと信じてもおかしくない。
最新モデル「GPT-4」の性能実験をしたところ、米国の司法試験で上位10%に入れるほどの成績を挙げた。前モデル「GPT-3.5」は、米司法試験で下位10%だったから、格段に優秀になって合格できることが判明した。英語の言語能力も、先達のグーグルが開発した対話型AI「PaLM」の成績を上回った。
GPT-4が、本格的な専門能力を身に付けて立ち現れたことがわかる。AIから引用したレポート作りをさせないためには、対面の口頭試験や教室で記述させるなど、別の方法で対応せざるをえない。
ところが、大学側の心配にはお構いなく、学生側のGPT使用は爆発的に進む。米スタンフォード大学の学生新聞が行ったGPT公開から1カ月余の1月の調査で、早くも学生の2割近くが「試験や宿題にGPTを使ったことがある」と回答した。

日本の大学の反応はどうか。東京大学は、この生成AIの高度化を前向きにとらえる。4月に学内サイトに公開した見解は、AIの進化スピードに驚きを隠さない。「人類はこの数カ月でもう既にルビコン川を渡ってしまったのかもしれない」と表明した。今や「多くの分野の学者が、社会の大変革を予感している」とし、学生や教員に対し実際に使ってみては、と呼び掛けた。
他方で、GPTにウソが含まれている可能性を指摘、教員側に学生らによる利用の可能性を十分に認識して、学位論文等の評価を行う必要にも言及した。注意して積極活用すべき、との提言だ。

反面、厳しい使用制限を打ち出す大学もある。上智大は、学生がレポートなどにAIが生成した文章や計算結果を教員の許可なく使うことを禁止。使用が判明した場合、「厳格な対応を行う」と、公式ウェブサイトでクギを刺した。九州大も新入生向けガイダンスで、「コピペは不正行為。使用ルールを授業ごとに確認を」と注意した。
大学側の戸惑いぶりが分かるが、教職員向けに生成AIに関する留意事項を丁寧に示しているのが東北大だ。結論として次の3項目を挙げる。まず、「生成AIの利用を完全に排除することは現実的でない」。次いで「学生がレポート作成等に利用することで、学生自身の学びや厳格な成績評価の点で大きな問題が生じうる」。そこで、「多くの学生が使用することも想定した上で、必要に応じて対策を講じる」と3段論法で説いた。さらに、生成AIへの入力が学習データとしてAIに利用される懸念等の補足説明も加えた。大学にとってチャットGPTの衝撃は、教育の方向を揺るがすほど大きかったのだ。

<画像>東北大学の生成AI利用に関する留意事項 (出典:東北大学ウェブサイト)

深層学習の謎とブラックボックス

ここで、チャットGPTへの懸念がイタリアをはじめ各国でにわかに強まった理由を考えてみよう。理由の1つは、GPTはたちまち回答を出すが、その根拠となる情報源や判断プロセスが不透明であることだ。GPTは「知りません」とは決して言わない。「なるほど」と思わせる何らかの回答を提示する。
だが、なぜそのような高精度の回答ができるのか。この謎を解くために、GPTの回答の精度を向上させた深層学習(ディープラーニング)の秘密をざっくり探ってみよう。
チャットGPTは、今や大規模言語モデル(LLM)で先頭を行くが、突然発明されたものではない。もとは17年発表の米グーグルの「トランスフォーマー」を深層学習を深めて急進化させた対話型AIである。

深層学習は人間の脳を参考に作られた手法だ。人間の脳には推定1千億超ともいわれる神経細胞があり、これにシナプスがつながって働いている。その仕組みを真似た「ニューラルネットワーク」というモデルが使われ、ウェブ情報をもとに学習している。この深層の入力層に自然言語を理解できる形にして入れると、中間層で判断し処理して出力層に最終結果を出してくる。この中間層は、脳細胞が沢山集まり連なる多重層で、コンピューターが自分で考えて判断する部分だ。
ところが、この中間層が見えないブラックボックスになりうる。そうなると、どのように学習し、どのように判断したのかが外から分からない。GPT-4では、本来ならテクニカルレポートで公表されるはずの脳細胞の数相応を示すモデルのサイズや学習に活用したデータ、トレーニング方法、判断根拠など詳細は明らかにしていない。ブラックボックスになっているのだ。この不透明さに利用への不安や懸念の淵源がある。
高度な生成AIの持つリスクは、誤情報、ニセ情報やニセ画像の拡散、個人情報の漏出、コピペ不正、著作権侵害、世論や選挙操作、ステルスマーケッティングなどが指摘されている。その潜在力の凄さを考えれば、高度AIテクノロジーを正しく生かすための国際協定を含む規制作りの必要に迫られる。

考えない若者が増える

だが、問題の最奥にある核心は、次の点にあると思われる。ある教育学者が言った。「GPTの使用は見抜けない。コピペの極致になるだろう」。結果、教育現場での学生らの利用価値はますます上がり、使用急増の方向だ。最悪シナリオは、「考えない若者」が増えていくことだ。
なぜなら、論文などをGPTのコピペで済ませ、自分の頭で考えようとしなくなるからだ。考え、文章にまとめる行為は、一般に学習に始まり、知識、情報収集、判断と分析、結論、文章表現、チェック(見直し)というプロセスを辿る、相当に時間と手間のかかる知的作業だ。この一連の作業工程がすっぽりと省略されるため、考える力が衰え、脳の退化につながるリスクがある。

GPT使用の普及により、意味抜きでアルゴリズムで導かれる知識水準自体の低下も懸念される。理由は、自然言語処理技術では機械が意味を理解できるようにならないためだ。数理論理学者の新井紀子氏によると、機械は意味は分からずに、統計と確率の手法を使って既知の単語の正しそうな組み合わせで回答をビッグデータから導き出す手法をとる。
つまり、過去に公に知られたネットデータの大鍋から選び取る回答のため、最新の高度な知見は出にくい(GPT-4は21年9月までの学習データ)。大学側もユニーク性の高い最新発表論文に対しては、著作権も考え、ネットへのアップロードに慎重になりがちだ。
こうして意味を理解しない機械が、直近のではない蓄積データから統計的確率的に推測して答えるので、その知的水準はまっさらな最新でなく、意味の取り違いも生じる。となると、自分の知っている範囲の問題で実用の方法とか内容理解や業務改善、アイデア発見、文章の整理・作成などに使うのが適当ではないか。

国家のAI監視強まるリスク

利用者の爆発的な増加を前に、各国政府も生成AIの制御に向け動きだした。チャットGPTなどをこのまま放っておけばニセ情報など犯罪目的にも使われ、社会の混乱を増す。 5月に広島で開かれたG7サミットで、議長国・日本は国際的な統一規制ルール作りを提唱し、G7の合意を得た。
一方、AIの取り組みで米国と主導権を争う中国も4月、生成AIの管理対策草案を発表、調整して年内施行を目指す。対策では、AIが生成するコンテンツは「社会主義の中核的価値を反映する」ことが条件となる。つまり、中国の社会主義体制の転覆につながるような要素は持ってはならない、というわけだ。
これにより、対話型AIで中国の統治に関して自由な回答が得られず、ブラックボックス化する。中国は国民に政権に不都合な情報を閉ざし、口出しさせないクローズド情報空間を堅持する意図だ。

情報空間には国境がない。米中2大国の生成AI対応の結果、国家によるAI監視が強化され、その影響が国際的に波及していく可能性が高まる。今後、生成AIの潜在的な危険性を逆手にとる形で、国家の不当なAI監視が強まるリスクが生じる。
イノベーションと規制のバランスが問われる。科学技術のあり方と社会にとってよい仕組みを決めなければならない時機が、GPTの出現で突然訪れた形だ。科学技術の進展に伴う社会的倫理的課題への取り組みに、日本は後塵を拝する。個人情報・プライバシー保護、著作権保護において、日本は先進のEUに比べ周回遅れだ。プライバシーや創作品の尊重は、「個人の自由な意思とユニーク性・多様性」を重んじる民主主義・自由主義の土壌に育ちやすい。この扱いで日本が敏感さを欠くのは、そもそも「個人の尊重」の度合いの違いに起因しているためだろう。日本は出遅れを取り返さなければならない。

立ち上がるアーティストたち

チャットGPTの登場でとりわけ著作権者は危機感を募らせる。米アーティストらは1月、画像生成AIを運営する英企業を相手取り著作権侵害の訴訟を起こした。AIの学習には膨大なデータが必要だが、原告の許可なく無断で集め使ったと主張。著作権者が希望すれば学習対象から作品を除外できる「オプトアウト」の対応もなかったという。
GPT-4には3500億語以上がインプットされているといわれ、多くの文章や画像、動画が、著作権者の許可なく学習用に集められていたのは確実だ。著作権者からすれば、苦労して完成した自分の作品が無断でコピーされ、収入減にもつながる事態となる。

日本のアーティストも、著作権侵害の危機感から立ち上がった。イラストや漫画、音楽などの創作活動家でつくる「クリエイターとAIの未来を考える会」は4月、国会議員や文化庁に著作権法が認める「AIによる著作物の無断学習」の深刻な影響を訴えた。同法30条4は、AIによる機械学習など情報解析が目的であれば、「いずれの方法によるかを問わず、利用することができる」とある。著作物の学習利用を事実上、無制限に認める内容だ。IT企業側の使い放題を防げない。著作権者がAI使用の事前許可、オプトアウトの新設、使用料の支払いなどを求めるのも当然だろう。
EUでは19年、著作物の使用に関し学術研究目的以外の分野についてオプトアウトを導入するよう加盟国に義務付けた。米国は4月、相次ぐGPTへの提訴を受け、生成AIの規制案に向け60日間にわたる一般からの意見募集を開始した。一方、日本はAI開発重視で、規制には慎重だ。

<画像>クリエイターとAIの未来を考える会Twitterより