情報の専門家であるジェフ・ハンコック氏は、法的な文書の引用を整理するためにOpenAIのChatGPTを利用したと告白し、この法的文書自体の信頼性が問題にされている。
出来事の詳細:ハンコック氏は、スタンフォード大学ソーシャルメディア研究所(Stanford Social Media Lab)の設立者でありながら、作成した宣誓供述書の起草にChatGPTが協力してくれたことを認め、この宣誓供述書には誤りがあると認めた。ただし、この誤りは専門家によれば、文書の中核的な主張には影響を及ぼさないという。
ハンコック氏は次の文書で、「私はこの宣誓供述書の中身について執筆し、それを見直しもしました。そして、この中には私が専門家として最新の学術的研究で支えられた、AI技術がどのようにして誤情報やその社会的影響に影響を与えるかという意見を反映しています」
ハンコックの宣誓供述書は、YouTubeで「Mr. Reagan」として知られるクリストファー・コールズ氏と、ミネソタ州議会議員のメアリー・フランソン氏によって連邦裁判所にて争われている「選挙に影響を与えるためのディープフェイク技術の使用」法を裏付けるものである。
これを受けて、コールズ氏とフランソン氏の弁護士は、ハンコック氏の提出した文書について「信頼性がない」として、文書の取り下げを求めた。
関連する記事
Hancock clarified that while he used ChatGPT for drafting, he did not rely on it for writing. He emphasized his commitment to the affidavit’s claims, supported by scholarly research. He used Google Scholar and GPT-4o to find relevant articles, inadvertently causing citation errors, known as ‘hallucinations.’(訳注:原文ママ)
「私は起草のためにChatGPTを使用していたが、執筆には依存していない」とハンコック氏は説明した。彼は、学術的研究によって支持される宣誓供述書の主張に対する自認を強調し、関連する記事を見つけるためにGoogle ScholarとGPT-4oを使用した。これによって偶然引用の間違いが生じてしまい、これが「幻覚」と呼ばれるものである。
ハンコック氏は「法廷や弁護士を誤解させるつもりはありませんでした」と述べた。
重要なのは何か: ハンコック氏の行動は、AIの信頼性に関する継続的な懸念を浮き彫りにしている。
2023年5月、ある弁護士は、非存在の事件を見立てた瞬間にChatGPTが法的動乱を引き起こしたため、同様の問題に直面した。 。
これは、GoogleのCEOであるサンダー・ピチャイ氏が AI がこの問題と戦っていると認めた以来、AI「幻覚」という課題を強調するものである。
ChatGPTの後継機であるGPT-4の発売を通じて見られるAI技術の急速な進化は、イーロン・マスク氏(Elon Musk)やOpenAIのCEOであるサム・アルトマン氏のようなテクノロジー業界のリーダーたちが、潜在的なリスクに対する警告を繰り返している。(リンク) 。
ベンジンガの消費者向けテックカバレッジの詳細については、こちらのリンクをクリックしてください。
次に読むべきは
免責事項:このコンテンツの一部はAIツールを使用して作成されましたが、ベンジンガの編集者が審査および承認を行っています。
写真提供:Shutterstock