明日を生きる多発性骨髄腫患者の日常

元大学教員が綴るこれまでの経過と現在 。なお、入院と本格治療の経験については、00から34あたりまでをお読みください。 。

明日を生きる多発性骨髄腫患者の日常187 自転車とIT:チャットGPTをめぐる議論について

こんにちは。

 

このところ、連日のようにチャットGPTをめぐる話題が報道されています。実際に使っておられる方がどのぐらいいらっしゃるのかわかりませんが、その普及スピードは、各種SNS等と比べても圧倒的らしいです。いわゆる会話型AIが私達の日常に大きな影響を与えそうだ、ということはたしかなようですね。私自身もまだ使ったことはないので、仕組みはよくわかっていないのですが、今回はこれについて少し考えてみました。

チャットGPT(Chat Generative Pre-trained Transformer)。無理やり日本語に翻訳すれば、会話型の「(文書)作成可能な事前学習型変換器」とでもなるのでしょうか。簡単に言えば、利用者の質問に対して、AIが公開されている世界中のデータや情報を集め、それを自動的に文章にまとめて、回答として提示してくれる、というものです。何らかのキーワードを入力すれば、それに関連するさまざまなサイトを紹介してくれる、というのは今ではインターネットを使う人間にとって日常的に当たり前のように使っているものですが、AIによって、膨大なデータを収集・整理して、それを文章という形にまとめ上げるというところが注目される大きな理由でしょう。つまり、AIが作った文章をそのまま公表してしまうことが可能だ、ということです。AIの文章作成能力は日々進化しており、人間が作成した文章との違いを見分けることが困難になりつつある、とさえ言われています。AIは学習によって自分をどんどん精度の高い物へと進化させていくことができる技術ですから、今後はもっと「人間らしい」文章を作成していくことも可能かもしれません。

今の段階では、もちろんさまざまな問題点が指摘されています。もっとも大きく取り上げられるのは、情報が必ずしも信ぴょう性の高いものばかりではないということ、そして場合によっては個人情報やあまり多くの人に見てほしくないような情報さえもが収集の対象となり、結果として情報漏洩が起きてしまうということでしょうか。

世の中に溢れている膨大なデータや情報の真偽を確かめることは、実はそんなに容易なことではなく、機械的にこれを判断していくのは技術的に限界があります。例えば、正常な判断のできる人間の目から見ればフェイク・ニュースかもしれないと思えるものでも、それと同じ趣旨の情報が大量に流されていたなら、機械的には「既にかなり多くの人に認められている」と判断してしまうかもしれないのです。もちろん、AIは使用頻度が高くなればなるほどコンピュータ側の情報収集・処理能力が高くなり、ある程度はこれをチェックできるようになるのかもしれません。しかし、すべてそれに委ねてしまったなら、人間は何も考えなくてよいことになってしまいます。そしてAIが導き出す答えを、何の疑いもなく受け入れてしまうかもしれないのです。最低限、出てきた回答をきちんと読み、それが本当に適切なものなのか、客観的に見て間違いはないのか、といったことを他の情報源とも照らし合わせて検証する必要があるのです。

また、情報漏洩の危険性についてですが。例えば、業務でこれを使用するとき、より正確で詳細な文章作成を求めようとすると、それに必要なことを利用者が入力することになります。しかし、それが機密情報流出の端緒となってしまうかもしれないのです。ここでの問題は、利用者が意識しないままにそのような事態を招いてしまうことです。つまり、このリスクは利用者である人間が細心の注意を払えば、かなりの確率で防げるはずだと思います。これはインターネットを利用する際の一般的な注意点にもなりますが、何らかのネット上の不具合や自らのうっかりミス、意図しないままの個人情報発信、さらには悪意あるウイルスの侵入など、本来自分があまり多くの人にさらしたくはない情報が公開されてしまうリスクは常に意識しておかなければなりません。チャットGPTの場合だと、そうやって公開されてしまった情報が第三者にやすやすと利用されてしまう可能性があるのです。

ここまで書いてきたように、チャットGPTをはじめとする会話型AIの適切な利用には、人間の客観的かつ冷静な判断が必要なのです。そして、私がもっとも危惧するのは、このことと関係します。これだけ便利な仕組みができてきて、しかもそれがどんどん進化するとなると、それにすべてを委ね、自分で判断するという力を失ってしまう人がどんどん増えてしまうのではないでしょうか。

現時点で技術的にまだまだ改善の余地があることはチャットGPTを開発したOpenAI社も認めており、不具合やセキュリテイ問題を見つけた人に最大2万ドルを支払う用意をしているそうです。これを「バグ・バウンティ・プログラム(Bug Bounty Program)」つまりプログラム上のバグ(不具合)発見に対する報奨金制度というそうですが、あまりにも急速な普及に同社が自前のチェック体制だけでは対応が追い付かなくなっているということでしょう。そして、これがどこまで進化しても、人間の判断力がまったく不要になることはないだろう、というのが私の考えです。

ある大学の今年の入学式では、チャットGPT等の会話型AIについて、「この変化を傍観するだけでなく、変化を先取りし、積極的に利用法や新技術、法制度、社会・経済システムを見出していくべきだ」との見解が示されたそうです。安直に便利なものを利用するのではなく、このような姿勢を持ち続けることが大事なのかもしれません。

以前、知人であるIT専門家から「ITは自転車のようなものだ。」という話を聞きました。自転車に乗れば、誰でも歩いたり走ったりするよりも早く移動することができます。しかし、もともと基礎体力がある人とあまりない人では、当然そのスピードは異なります。そして、その差は、両者が歩いて移動している時よりも大きくなる可能性が高いのです。そして、ITの世界でもこれと同様のことが起きる、というのです。つまり、ITの進化はすべての人に同様の恩恵を与えるのではなく、そこに新たな格差が生じてしまうかもしれない。ただ、その格差は個人の意識とちょっとした努力によって、縮めることが可能なのです。

 

今回も、最後まで読んでくださり、ありがとうございました。