最近、連邦裁判官が著作権で保護された資料を元にAIモデルをトレーニングすることは「フェアユース(米国著作権法のフェアユース条項に基づく権利制限の適用範囲)」に該当すると発表した。一方で裁判所は、海賊版コンテンツのスクレイピングはまた別の話だということも明確にした。AIトレーニングに関する法的なグレーゾーンが少しだけ明確になった。
今回の裁判所の決定は、「フェアユース」が当分の間AIトレーニングをカバーする可能性があることを明らかにした。しかし法的保護は道徳的正当性と同じではない。AIの知能の発生源を知りたい人たちもそれが自分たちに由来するものであれば功績を認めてほしいと思っている。
この瞬間は、訴訟に直面しているテック大手に限らず、AIシステムの構築、使用、または依存に関わる全ての人にとって警鐘を鳴らすべき時である。なぜなら本当の問題は単に何が合法かということだけでなく、何が追跡可能で説明責任があるかということだからだ。
AIに対する信頼は低下している
数年前、世間はまだAIに好奇心を抱いていた。しかしエデルマンの最新の信頼度計によると、AI企業に対する信頼は米国で35%にまで落ち込み、5年間で15ポイントの急落となっている。英国のロイター研究所の調査では、63%の人々がAI生成のニュースに不信感を抱いていることが判明した。世界的に懐疑的な見方が増加しているが、その理由は人々が機械に支配されることを恐れているからではなく、何がそれを動かしているのかを理解できていないからだ。
ChatGPTに質問をした場合、それは誰の著作物を参考にしているのか? リーガルAIツールが判例を提案した時、元の判決文を書いたのは誰か? テレグラムのチャットボットが取引を推奨した時、そのチャットボットはどのようなデータで訓練されていて、それは操作されたものか?
現時点では誰も知らない。そしてそれが問題なのである。
Traceable AIが登場し、すべてが変わる
新しいシステムが構築されているが、それはAIの成分ラベルのように機能する。トレーニングデータの各ピースがどこから来たのか、誰が寄稿したのか、モデルの出力にどのような影響を与えたのかを追跡する。これにより、一種の「ペーパートレイル(文書保管経路)」が作成されるため、AIが回答を返した際に、その回答は何に基づいていたのか、功績を認めるべき人物は誰なのかを実際に確認できる。そうしたシステムの一つは、Proof of Attribution(PoA)と呼ばれている。
トレース可能なAIシステムでは、データは無断でインターネットからスクレイピングされるのではなく、所有権を保持するクリエイターやコミュニティによって自発的に寄稿される。データの各ピースには、それがどこから来たのか、いつ追加されたのか、どのように使用できるのかといった詳細がタグ付けされている。モデルを1回トレーニングしてロックインするのではなく、システムは継続的に更新され、何が入力され、何が出力されたかを追跡する。 モデルが応答を生成すると、その応答にどのデータが影響したのか、どのような意思決定が行われたのか、各ソースがどの程度の重要度を持っていたのかを振り返って確認できる。
サブスタックのライターがコミュニティ管理のデータセットに1段落寄稿したとしよう。そのデータセットは、法務支援チャットボットを動かすモデルをトレーニングする。そのチャットボットが回答の中でその知見を引用した場合、元のライターが記録され、功績が認められ、モデルの構造によってはマイクロペイメントや認識を受けることもあり得る。
このモデルはもはやニッチではない
Traceable AIはもはや学術界や暗号ネイティブプロジェクトにおける単なる実験ではなく、実際に展開され始めている。Web3では、AIエージェントが取引戦略の最適化に使用されている。医療分野では、患者データが診断にどのように寄与しているかを追跡するために、帰属認識型AIを分散型研究協同組合がテストしている。教育分野では、AIチューターが学習ソースを引用し始めているため、学生は回答を受け取るだけでなく見直すこともできるようになった。
静的で不透明なモデルは、あらゆる回答に文書保管経路がある、監査可能でモジュール化されたインテリジェンスに徐々に取って代わられている。
なぜ今これが重要なのか
契約交渉、価格設定、資源配分のいずれにおいてもAIがますます代理で行動しているため、ボットやAIツールによって増強されたシステムを通じて数十億ドルが流れている。そのモデルが誤っていたり、偏っていたり、操作されていたりすると、生態系全体が危険にさらされる可能性がある。
良いプレーヤーに自分たちの誠実さを証明するためのツールを提供することが不可欠である。モデルが研究者の画期的な発見を助けた場合、その洞察の裏にいる人々は可視化され、理想的には価値を与えられるべきである。
この先どうなるか
Traceable AIによりモデルの公平性が高まり、説明責任が明確になり、モデルのパフォーマンスが向上する。AI企業の次の波は、モデルの稼働速度や収集データの量によって定義されることはない。彼らのインテリジェンスがどの程度透明性を持っているか、そしてそれを動かしている人たちにどの程度功績を認めているかによって評価されるだろう。
AIが未来を再形成するつもりならば、その未来の発生源を追跡できなければならない。
Benzinga免責事項:この記事は無報酬の外部寄稿者によるものです。Benzingaの報道を意味するものではなく、内容や正確性の面で編集されたものではありません。