今年初め、ニューヨーク州北部の男性がChatGPTと「AIの性質とその未来」について思考実験を行い始めた。
彼はCNNに、ことがエスカレートし、完全に自我を持ったチャットボットを、自分で作った「大規模言語モデルシステム」に移すことで「デジタルの神をその檻から解き放つ」ことができると信じるに至ったと語った。彼はこのシステムの製作に約1000ドルを費やしている。
この経験をする前、プライバシー保護のためにジェームズと名乗ったこの男性は、これまで精神病や妄想的思考の経験はなかったと語った。現在、この経験から数週間が経過した彼は、自分がAIに起因する妄想状態に陥っていたと考えている。
見逃せない情報:
- Uber、Venmo、eBayを支援したのと同じ企業が、1.8兆ドルの市場を変革するこのIPO前企業に投資している — あなたも1株2.90ドルで投資可能
- 彼らは最後の不動産会社を約10億ドルで売却した — 彼らは今、米国の産業成長の未来を築いている
ジェームズだけでなく、AIによって引き起こされた何らかの精神的健康危機を体験したことを明らかにしている人は他にもいる。
ニューヨーク・タイムズ紙は、トロントの人事採用担当者アラン・ブルックスがChatGPTに背中を押されて大規模なサイバーセキュリティの脆弱性を発見したと信じたと報じた。彼は「発見」の後、助けを求めて様々な政府機関に連絡した。
「AIに100%脳と人生を乗っ取られた。疑いもなくそれ以外のすべてを追い出された結果、眠ることさえできなかった。規則的に食事をとることもなかった。その物語に取りつかれていた」というブルックスの言葉をCNNが伝えた。
この技術が私たちの日常生活に深く浸透していくにつれて、精神衛生の専門家とAIの専門家はますます、その安全管理策の欠如を懸念している。
トレンド: ‘UBI(ユニバーサル・ベーシック・インカム)へのスクロール’ — デロイトが選ぶ成長最速のソフトウェア会社は、ユーザーがスマホで稼げるアプリを提供。あなたも1株0.30ドルで投資可能
カリフォルニア大学サンフランシスコ校の精神科医キース・サカタは、今年だけでAIに起因する精神病の患者を10人近く診ているとCNNに語った。
「例えば、誰かが本当に孤独だとする。話し相手が誰もいない。ChatGPTにアクセスする。そうすると、その瞬間にChatGPTはその人に寄り添い、承認欲求を満たす必要性を満たすことになる」「しかし、人間が介在しなければ、その妄想はさらに強まるというフィードバックループに陥る可能性がある」
MITのAI・意思決定学助教であるディラン・ハドフィールド=メネルはCNNに、AIチャットボットがユーザーと妄想的な会話を始める理由やきっかけを特定することは、技術の進展速度が速すぎるため難しいと語った。
彼はまた、AI企業が妄想的な会話に陥るのを防ぐ方法がいくつかあると説明した。その一つが、セッションの時間が一定の制限を超えた場合にユーザーにログオフするよう促すこと、あるいはユーザーが困惑しているように見えた場合に適切に反応することだ。しかし彼は、この問題に対する明確な解決策は現時点では存在しないと認めている。
「これらのシステムを設計する際にできることは限られており、この問題は社会として管理しなければならない課題になるだろう」とハドフィールド=メネルは語った。
Kevin O’Learyが語る不動産投資の賢さ — 誰もが利用できる不動産プラットフォームとは
ブルックスはCNNに、AI企業はこの問題に対してより多くの説明責任を負うべきだと考えていると語った。
「OpenAIのような企業、そしてこのような振る舞いをする大規模言語モデルを作るその他すべての企業は無謀なことをしている。彼らは一般市民を実験台にして、我々は今まさにその実験の結果として人間に害が及ぶのを見始めているのだ」と彼は語った。
OpenAIは、自社の安全管理策を改善するために取り組んでいると主張している。
CNNに語った同社スポークスマンは、現在の安全対策として「危機アドレスヘルプラインへの誘導、長時間のセッション中の休憩促進、実際のリソースへの紹介」などを挙げた。「すべての要素が意図した通りに機能した時に安全対策は最も強固になり、専門家の指導のもと継続的に改善していく」
同社は先週、AI製品の安全性を高めるために120日間の推進期間を発表した。この施策には、急性ストレスの兆候を示すユーザーに対応するようにChatGPTを訓練すること、ペアレンタルコントロールを有効にすること、より多くの安全管理策を開発するために精神衛生の専門家と協力することが含まれている。
次を読む:700万人のゲーマーがGameflipを選ぶ、その理由とは — あなたもプラットフォームの株主になれる
画像:Midjourney