Microsoft Corp. (NASDAQ:MSFT)の人工知能責任者であるムスタファ・スレイマンは火曜日、SCAI(Seemingly Conscious AI)システムから「一見意識を持っているかのように見えるAI」には新たなリスクがあると警告し、この技術は社会に危険な分断やユーザーの心理的な依存を生み出す可能性があると主張した。
スレイマンのブログ投稿、AI開発倫理に関する市場の懸念を浮き彫りに
スレイマンは、「We must build AI for people; not to be a person(私たちは人間になるためのAIではなく、人のためのAIを作らなければならない)」というタイトルの長文ブログ投稿の中で、実際には意識を持たないにもかかわらず、意識を持っているかのように説得力のあるシミュレーションを行うAIシステムに関する懸念を概説した。この警告は、マイクロソフトのAI事業が年間売上130億ドルに到達し、前年比175%成長したことを受けて発せられたものである。
AIセクターにとっての重要な市場への影響
スレイマンの懸念は、彼が「精神病リスク」と呼ぶものに焦点を当てている。すなわち、ユーザーがAIの意識を強く信じるようになり、AIの権利や市民権の擁護につながる可能性があるということだ。
この展開は、Microsoft、Alphabet Inc.(NASDAQ:GOOGL)(NASDAQ:GOOG)やMeta Platforms Inc.(NASDAQ:META)などの主要なAI企業にとって規制上の課題となり得る。
GoogleのDeepMindを共同設立し、2024年3月にMicrosoftに入社したマイクロソフトAI責任者は、現在の大型言語モデルは意識の「兆候はゼロ」であることを強調した。しかし、彼は今日利用可能な技術的能力は組み合わせることにより、2〜3年以内に説得力のあるシミュレーションを作成できると主張した。
こちらも参照: OpenAI、インドに拠点を設立し2番目に大きな市場への拡大へ
SCAIのリスクを生み出す技術的能力
スレイマンの分析によると、既存のAI機能のいくつかは組み合わせることで、一見意識を持っているかのように見えるシステムを作り出す可能性があるという:
- パーソナリティ特性を備えた高度な自然言語処理
- ユーザーとの対話を記憶する長期記憶システム
- 主観的な経験と自己認識を持つ
- 単純なトークン予測を超えた内在的動機付けシステム
- 自律的な目標設定とツール使用能力
これらの機能は、すでに主要なAI APIを通じて利用可能であり、実装には画期的な技術は必要なく、業界が介入しなければSCAIの開発は「避けられない」とスレイマンは述べている。
業界の基準と規制上の対応が必要
このブログ投稿では、AIの能力に関する合意の定義や、意識のシミュレーションを防ぐための明確な設計原則など、業界としての早急な対応を求めている。スレイマンは、AI企業はAIの意識に関する考えを促進することを避け、AIの限界をユーザーに思い出させる「disruptionの瞬間」を実装すべきだと示唆した。
マイクロソフトAIでは、スレイマンのチームが責任あるAIパーソナリティ設計のための「堅牢な安全策」を開発中である。このアプローチは、人間のような意識や感情をシミュレートするのではなく、人工的なシステムであることを明確に示す有用なAIパートナーの作成に焦点を当てている。
この警告は、健康部門の責任者であるドミニク・キングやAI研究者のマルコ・タグリアサッキ、ザラン・ボルソスなど、元Google DeepMindの人材を採用したという事実を考えると、特に説得力がある。
次を読む:
免責事項:このコンテンツは部分的にAIツールの助けを借りて作成され、ベンジンガ編集者によってレビュー・公開された。
写真提供:Shutterstock