知識の所在が変わった

現在、サム・アルトマン(Samuel H. Altman)氏がCEOを務めるOpenAIが世界を揺さぶっています。

深層学習によって進化したAI技術は、インターネットのように基盤技術として様々な社会経済機能の中に取り込まれようとしていて、つい最近のChatGPTの登場によって一般人にも分かりやすい形で認識が広まったということになります。

サム・アルトマン氏は精力的にメディア対応をしていて、人々の疑問や懸念などにちゃんと考えを返している点で、革新的なものに対して起きがちなヒステリックを和らげているようにも思えます。

残念ながらテレビ東京の特集番組は見られていませんが、YouTubeに公開されている一部分を観ると日本語を始めとした多国語についても前向きのようです。

先日、文部科学省で「今後の教育課程、学習指導及び学習評価等の在り方に関する有識者検討会」第3回が開催されていました。

学校で使う教科書が準拠する「学習指導要領」(教育課程)を改訂する作業を開始するための準備検討会です。つまり、学校教育の方向性を決定する会議となり、大変重要な助走です。

この会議で安宅和人先生がゲストスピーカーとして発表されたのですが、会議の傍聴募集段階では確定していなかったためか、そのことは何も告知されていませんでした。

傍聴募集時には安宅先生のクレジットは無し

そもそも文部科学省の会議に関心を示す人達は少ないですが、安宅先生の活動に関心のある人は多いはずですので、事前にわかっていれば、通常よりも傍聴者は多かっただろうと思います。

先に書いたように、この会議は新しい学習指導要領を改訂する作業に先立つ助走的会議です。実際の改訂作業は大臣からの諮問によって中央教育審議会が請け負い、下部部会が審議したあと、答申が出来上がった頃に世間で話題になって「あーでもない、こーでもない」と騒がれます。

しかし、この助走的会議で議論されている内容が、そもそもの「諮問」を方向づけるものになるため、世間の人々が目を向けるべきは、この「今後の教育課程、学習指導及び学習評価等の在り方に関する有識者検討会」であるべきなのです。

そのような場に、安宅先生が招かれて意見を発表されたのですから、安宅先生が日頃から各所やメディアで語られている内容に関心を寄せている人々の関心を、この会議にも寄せてもらう絶好の機会なわけです。少なくとも安宅先生のご主張を学校教育の議論の中に直接投げ込む機会を多くの人々が目撃することは、いろんな意味で重要だと思われます。

会議の様子は教育分野の専門新聞である「教育新聞」が即日記事にしました。(ちなみに教育分野の専門紙は、意外かも知れませんが何紙もあって、他にも教育家庭新聞日本教育新聞内外教育などあります。)

教育新聞は、大変マイルドというか、オブラート力が発揮された執筆手法をとるメディアなので、この記事も会議のおおよそを捉えてはいるのですが、実際に傍聴した場合の印象とは違うところも多いです。むしろ、傍聴していたときのスリリングさはまったく省かれています。どうぞメディアリテラシーを発揮してお読みいただければと思います。

また、実際に傍聴した場合にも、どうか検討会委員や文部科学省事務の人々あるいはゲストスピーカーのやりとりについて短絡的に責めないでいただきたいと思います。

もしも抵抗勢力のようなものがあるとすれば、今回の検討会議にはそういう存在はありません。むしろ学習指導要領改訂作業が始まってから、各教科に関する実際的議論が始まったときに、得体のしれない抵抗勢力のようなものが生まれ、世間の人々が知らず関心を寄せない中で、その得体のしれない抵抗に前向きな人々が消耗戦を強いられるということが、ずっと続いてきたのです。

この「今後の教育課程、学習指導及び学習評価等の在り方に関する有識者検討会」は、助走的な会議であれど、最初の前提を決める場であるからこそ、そのような自然発生する抵抗勢力を抑え込むための強力な根拠なり武器を得ておかなければならない役目を負っています。

今回、安宅先生が出席されたことで、本来議論を闘わせるべき文脈が見えていたけれど、会議時間や進行関係を考慮した大人の対応でガチで向かい合えなかったこと、そのことが全員にとって不幸だったと思います。

どうか関心のあるネットメディアが、安宅先生や委員の先生方を別の場所に招いて、じっくりと議論をしてもらいつつ、世間の関心もこちらに向けていただけるといいなと思います。

大規模言語モデルたち(LLMs)にまつわる様々な技術的進展を日々目にしつつ、安宅先生の検討会ゲスト発表を観ながら、教育との関わりでどう考えたらいいだろうかと考えたりしています。

従来までの教育は「世界に知識が偏在しているから、それらを掘り起こしに行けるよう学習すること」を目指していたと考えられます。

一方、LLMが何をしたかというと「世界の知識が言葉の関係付けで貯まっているから、そこから捻り出せるよう学習すること」を求め始めたのかなと考えられます。

それは最初に接する知識の所在が変わったというか、今まで偏在していた知識に接するためのポインタが1箇所に集約されたというか。

確かにこれまでもGoogleが世界の情報を整理しインデックス化してアクセスできるようにするという理念でやってきたことではあるのですが、Open AIが先に世間に見せたものは知識の方からやってきて私たちと同じ言葉を話せるように一所で待っている感じです。

Googleが「外に探しに行く」メタファであり、Open AIが「手元から取り出す」メタファ。

う〜ん、ちょっとこなれていませんね。もうょっと考えておきます。

たぶん、この2つは技術的には似通っているところがあって全く別物ではないのだけれど、人間の自然言語に寄り添って知識を提示できるようになったことが、これほど大きな違いを生むのだということを考えずにはいられないわけです。

そのようなときに、日本語という言語を使って教育や社会活動を行なう私たちは、英語などを流暢に使って動いている人々や世界との関わり合いの中で、どんな日本社会を思い描き、どう成長して、どう生きていくことができるのか、もっと議論しなければならないのだと思います。

「問いベースの教育」ということも大事ですし、記事ではほとんど省かれてしまった数理・データサイエンス・AIといった領域、あるいはコンピュータに関わる教育をもっとメインに置くことについても真剣に考えていくべきでしょう。

私も学習指導要領議論は慎重さが大事であるということは理解しています。不易流行において、何が不易で、何が流行なのかを慎重に見極めることは簡単ではないからです。

ただ一方で、もう日本には、そのような慎重さを10年単位で維持できるほどの余力がない、という現実を踏まえるとするなら、学習指導要領の各教科もドラスティックな変化をこの機に覚悟して断行しなければ、将来世代に禍根を残すのだろうなとも思います。

〈追記〉

ちょっと忘れていたのですが、今回の改訂が目指すべきものは「改訂プロセスの改訂」であることでした。

確かに取り入れるべき喫緊の題材があることは確かですが、そのことも含めて、学習指導要領の改訂を3年毎にでもできる改訂プロセスのアジャイル化が必要なのではないかと思います。

だとすれば、今回の助走的会議の役割は極めてシンプルです。「学習指導要領の改訂プロセスの迅速化と反復が可能となるプロセス改訂を諮問すること」を示唆することでしょう。

〈/追記〉

GPTのAPIを使う

自然言語AIであるChatGPTのベースとしてGPT-4もリリースされて、一般の人々でもサービスとして利用できるようになった。日々、新しいサービスが登場している。

年内には私たちが触れているオフィスソフトやネットサービスにAI機能が搭載されているのは珍しくない状況が揃うだろう。使うかどうかは使途に応じて変わってくると思うけれど。

ニュースばかり追いかけても面白くはないので、私もAPIを触ってみることにする。

まずは初歩的にPDFファイルを要約させることから挑戦してみた。

試行錯誤の末に出来上がったのがこちら。

https://www.con3.com/pdf/

読み込んだPDFファイルの内容を、OpenAIに登録して発行してもらったAPIキーを利用して、相手に投げて、要約文を返してもらう。シンプルにそういうWebページである。

実際にはもっと簡素な画面でつくったのだが、公開するとなるとページのお化粧をしたくなって、個人的に便利に使っているBootstrap Studioで作り直してみた。

OpenAIへの登録とAPIキーの発行が必要なので、便利とは言い難い。PDFなどの手持ち情報をもとにAIチャットを実現するサービスは立派なものがたくさんあるし、もはやブラウザでPDFを表示させてチャットで要約させることもできるようになってきたので、自作するメリットはお勉強のためくらい。

それでも、実際にAPIを使ってみる経験は、ニュースを追うだけでは曖昧な部分を知るよい機会となる。

高等学校の情報Ⅰ・Ⅱの内容を考えると、この程度のアプリ開発を高校生で理解できるようになる時代になったのだといえる。少なくとも、この分野のAIアシスタントは飛躍的に実用的になってきたのだから、あと何年かすれば、AIとペアプログラミングしている高校生の姿を学校でみることもできるだろう。

今回つくった要約ツールは、PDFの全文を細切れにして、順にAPIに投げることで、細切れに返ってくる要約を繋ぎ合わせて表示する形になっている。だから通して読むときの繋がりはあまりよくない。

この問題に対処した方法は、すでに先達の皆さんがいろいろ提示しているので、次の機会にそれらに挑戦してみたいと考えている。自分で再現してみたいという気持ちを大事にしたい。

もともとの目的は、自分の授業の見直しにあたって、新しい教科書の内容を要約させてみたいと思ったからだった。

とりあえず要約文を得ることができたので、第一段階は達成。それをもとに本文も精査しながら、授業の資料や課題を捻り出すとしよう。

また余裕が出来たら、課題生成ツールとか、穴埋め問題作成ツールとか、つくってみよう。

Don’t ask! Dooooo!

AI関連のWebページを開いたままのブラウザ・ウインドウがディスプレイを埋め尽くしていて、そのまま頭の中の散らかりようにつながっている。

ChatGPTは相変わらず高トラフックな状況にあり、昨夜はとうとうWebUI側は完全に落ちた。

ニュースによると実はチャット履歴の表示関連でバグがあったらしく、落ちたというか落としたというか、チャットの復旧後も履歴に関しては作業中になっていた。

ChatGPTフィーバーでいろんなサービスを開発したり、個人個人のタスク処理に早々に導入している人達にとって、ChatGPTや(今回は直接落ちなかったが)そのAPIが何かしらの障害に陥った場合、仕事や作業が止まってしまうことになる。今回の一件は「ChartGPT依存状態」に関して考える機会にもなったという感じだ。

東京大学の松尾先生のインタビュー記事の新着。

お忙しいなかで精力的に科学コミュニケーション活動にも対応されていて凄い。ただ、インタビューの質問がわりと似たようなものになりつつあって、ご本人も内心うんざりなんじゃないかと拝察。

「プログラミング言語じゃなくて、あなたも使ってる自然言語でやれるんだから、手を動かしてみたらいいのよ。Don’t ask! Doooooo!」みたいな。

来年度の授業を見直すにあたって、新しいテキストを選び直して再構築を試みているけれど、この際、授業のリソースはChatGPTに生成してもらおうと思った。

そのためにはAIにテキストを読み込ませて、それに関連したチャットや要約をさせたい。

PDFを読み込めるAIサービスはいくつかある。ChatPDFとか、Explainpapeとか、DocsBot AIといったものがある。

これらを利用すれば、テキストのPDFを読み込ませ、あれこれチャットしたり、要約させたり、作問させることで、授業で使えるリソースが得られるという寸法である。

ところが、どれも有料だ。無料枠はあっという間に消費される。

根が貧乏臭いので「自分でつくってみよう」となった。すでにOpenAIには年貢を納め始めているのだ。その中でやってしまいたい。

私も恥ずかしげもなくChatGPTにAsk!して、プロトタイプを作成してもらう。

プログラムが書きやすいお願いの仕方でプロンプトを作成。

あとはお約束の展開。

HTMLファイルとJSファイルが生成され、サーバーに置いてみると確かに動く。さすがGPT。

でもエラーが出て、結果は出ない。動くといっても正常には動かない。

2021年までの情報だと最新のAPI仕様が反映されていないし、ライブラリの参照先は通用しない。トークンの制限も引っかかっている。

最初からGPT4に相談してもよかったのだけど、メッセージ数を消費して、ここぞというときに助けてもらえないのは怖いので、しばしGPT3.5を友に試行錯誤して、最後にGPT4に仕上げを仰いだ。

それらしく動く原型はできた。

小学校の学習指導要領を総則を部分的に読み込ませると、要約文が返ってきた。ちなみに、同じPDFでも毎回要約文が変わる。

しかし、学習指導要領全文を入力するということはできていない。これには工夫が必要だ。

こちらのお知恵を借りようと思っている。

上手くいったら、あとはプロンプトエンジニアリングの世界になりそうだ。

ちなみに、学習指導要領に関しては、DocsBotを利用して全文を対象としたAIチャットボットをデジ庁の稲田さんが作成してくれている。

学習指導要領についてチャットできるのが嬉しいかどうかといわれると、現職の先生達よりは、どちらかというと教員養成在籍の学生達が利用すると便利かも知れない。教員採用試験の対策用問題を無限に生成できる。

というか、来年度以降は教育委員会の問題作成者がこれを使っていそうである。

確かにお金を払えば、このサービスで済むなぁ…、どうしようか。

言葉のガチャ

AIチャットは学習利用にも可能性

昨年11月末にChatGPTが公開され、深層学習技術が牽引する人工知能(AI)フィーバーが続いています。

そして先日はChatGPTがベースとしている言語モデルのバージョンアップ版GPT-4がリリースされ、より尤もらしい返答をするようになったことが話題です。

このタイミングで、GPT-4搭載のサービスも発表され、教育分野ではカーン・アカデミーがチューター・チャットボットKhanmigo(カーミーゴ)を試験中であることが公表されました。

大規模言語モデルをベースとしたAIチャット技術を教育分野に導入する具体的な一つの姿を見せてくれます。

個々人に向けて最適化された学習支援にAIを用いる場面が、単に最適な教材や問題の提示といった場面だけでなく、教材内容に関する質疑応答や問題に取り組む過程のアシストにも広がっていく可能性が示唆されているというわけです。

確かにGPT-4はかなり賢く返答しているように見えます。


言語モデルとは言葉のガチャ

言語モデルをどのように例えるとその特性を説明しやすいだろうかと、ぼんやり考えています。

言語モデルから生成される言葉や文章の危うさを印象づけるために…

ChatGPTのベースとなっているGPTという大規模言語モデル(LLM)は、世に出回る大量のテキストデータを学習データとして作られた言葉の「ガチャ」である。

と例えてみてはどうだろうと考えています。

希望するものが出てくるとは限らないという点がガチャに似ていて、何が飛び出す変わらないという不確定性を含められると思ったからです。

ただ、言語モデルをガチャに例えるのは、すぐに苦しくなります。

たとえば、ガチャの場合、トイ(おもちゃ)がカプセルに閉じこめられて用意されているので、取り出されるトイそのものは保証されたものなのに対して、言語モデルの場合、言葉が「トークン」という単位に分解されて存在するため、拾い出したトークンから組み立てられた言葉の内容までは保証されてないという違い。

推論によって言葉の表現が正しく組み立てられていても、内容までは保証されていないのだということを理解してもらいたいのにガチャの例えではその部分はうまく対比的に説明できません。

そもそも言語モデルはトークンを膨大な次元の数値にもとづいて配置(埋め込み)して、その配置の距離的関係を意味の関係性として処理することができるという前提もガチャではまったく表わせていません。

というわけで「言語モデルは言葉のガチャである」というのは、かなり大ざっぱな例えでしかないと言わざるを得ません。

より特定のタスク(プログラムコードを生成する)においては、かなり確実な結果を返してくる場面もあるため、その点でもますます例えとして難しくなります。

AIはタスクに応じて様々な手法やモデルが存在しますし、私たちが利用できているサービスなどは素の言語モデルを晒して使っているわけではなく、いろんなチューニングや評価機構、補完機能を組み合わせて構成されたものです。単純な例えで全てが賄えるわけもありません。

賢く見えるし、正しい情報を提供しているようにも見えるし、正しい情報であることもほとんどだろうけれども、それでも、それは「ガチャ」くらいの程度のものだというまなざしから始めた方が、いろいろと誤解しなくて済むのではないかと思います。