チョムスキー氏いわく「ChatGPTは凡庸な悪」

チョムスキー氏は大規模言語モデルと言われるAIを「機械学習の驚異」としながら、「疑似科学だ」としています。エセ科学であるかは次元の違う論点だと思います。膨大な文字データから、質問に会う文章を見つけ、ちゃんとした文章に整形して出力してくる技術は大変なものだと思います。

グーグル翻訳が出力する日本語のおかしさに比べれば、ChatGPTは大変な技術だと思います。

チョムスキー氏の指摘では「極めて深刻な欠陥は、知性の最も重要な能力を欠いていること」と指摘していますが、AIが知性を持つようになれば「偉大な邪悪」になりかねません。

道徳」に関する問いに対して「AIである私は、道徳的信念も道徳的判断を下す能力も持っていないので、不道徳であるとも道徳的であるとも言えない」との回答だったようですが、「道徳」とは何かと問えば、普遍的な善など、この世に存在はしないので、かえって「道徳には無関心」でいるべきように思います。

ハンナ・アーレントがアイヒマンに対して「悪の凡庸さ(陳腐さ、banality of evil)」は「思考停止」と「規範への従属」が引き起こすと指摘しています。ChatGPTが示す能力は「有害な思考停止」で、「悪の凡庸さ」にもつながりうるという警鐘でもあります。

しかし、ChatGPTが「有害」であるのではなく、ChatGPTが対象とする膨大な文書データの中に「有害さ」「邪悪さ」が多大に埋もれていることにあると思います。それが、ネット文化の宿命でもあるわけです。

かつてロシアがアメリカの大統領選に介入した時はロシアは膨大なコストをかけて人手でやったわけですが、それをAI化できれば、大量にフェイクを流せるようになり、そのフェイクな文章の量が増えるほどにAIのパターン認識はフェイクに寄って行くのは単に時間の問題でしかありません。

米ワイアード創刊編集長のケヴィン・ケリー氏によれば「問題は、AIが私たち自身の、浅薄で一貫性のない倫理観を明らかにしてしまったことだ」と指摘しています。つまり、AIが参考にしている文書データからしか回答は作れないわけで、その参考にしている文書データの知的レベルや道徳観を問題にするのが順序となるという指摘です。

毎日生成される文書データを選別することは不可能なので、AIが作成する回答に対して「チェック&レビュー」と「是正」をするAIを用意することで、ある程度に邪悪さは回避可能なように思いますが、ひとつ間違えば「検閲」になっていくわけで、AIが必ずしも福音とはいえなさそうです。

しかし、数だけいて、その数の論理が民主主義であるとする政治家による国会は、官僚の書いたペーパーを読むだけの茶番になっているわけで、これならAIを効率的に使えば、かなりな効率向上と利権がらみの邪悪さを排除できるように思います。政治が所詮、茶番であることはガーシーが示してくれたように思います。