グーグルでは、社内での対話型AIに利用規制

いまのところ、人工知能は膨大なデータから、いかに素早く質問に対応する回答らしき語彙を抽出して文章を組み立てるかで、その適格性(それはバックデータの量と解析)と文章生成技術(文法まで踏み込んでいるのかは不明)で各社が争っている感じがする。

少なくとも日本のスタートアップ含め、IT企業からの名乗りはない。

チューリングは、人工知能を生物的な解決策を模索していたと思われる。人工知能は幼いところから始めるべきだと指摘していたけれど、それは、思考力のことと思う。

今進んでいる人工知能は、ちょっと違う方向に進んでいる。

グーグルでは、自社の「バード(Bard)」を含む対話型人工知能(AI)の使い方について従業員に注意を促しているとのこと。対話型AIでは、質問の内容は公開している企業に取られてしまう。

また、プログラムコードを取得しようとして問いかけることで、何をしようとしているかを察知される懸念があるし、そこに悪意あるコードを埋め込まれる可能性も排除できない。

さらに生成AIが、これからどれだけの収入を生み出すかも未知数である。世界では対話型AIを使わないように従業員に求める企業が増えているのも同じ背景による。

対話型AIのサービスを提供している企業が、対話がAIを使わないように従業員に求めているのも、面白い現象だ。確かに、最近のグーグルの検索結果は、あまり芳しくない。かといって対話型AIが芳しいかというと、裏を取らないとうっかり使えないようなガセを平気で表示する。

それというのも、ネットの世界の言葉にはガセがそれだけ多いということでもある。

トヨタの社員が「トヨタの車には乗るな」ということはなさそうだから、やはり、どこかがおかしい世界になっているというべきか、正義の基準がシフトしているのかはわからない。