なぜAIに「人間の確認」が必要なのか
AIモデルは、それを教えたり、テストしたり、見守る人間の力にかかっています。でも、今のAIの仕組みにはたくさんの問題があります。
データ作業場では、自動プログラムやクリックボットが使われ、AIの学習データがこわされています。
「人のフィードバック」が、実はボットからの情報だと、AIの学習は正しくできません。
フェイク動画や声のコピーが、ネットの会話やチェック、認証にあふれています。
お金をもらうデータ作業に、たくさんの偽アカウントを使う人がいて、不正が起きています。
本物の人間」が関わっていると確認できなければ、AIは間違った学びをし、詐欺やイメージダウンにつながる可能性があります。
ディープフェイクとAIを使った詐欺の急増
今では、偽物の動画や声をとても簡単に作れます。そしてそれが、さまざまな詐欺に使われています。
AIで作った顔を使い、偽物の人が面接に合格します。
詐欺師が社長の声や顔をコピーして、お金を送らせることもあります。
偽物の動画が学習用データに入り、AIの結果や安全機能がくるいます。
Humanity Protocolができること
大事なアップロード、チェック、取引などを「人間である証明」と結びつけることで、
「この人とこのコンテンツは本物です」と言えるようになります。
すべての参加者が本物の人間なら、ディープフェイクは効果を失います。
Humanity ProtocolがAIに与えるメリット
人が作ったコンテンツの証明
記事、動画、取引、質問などに「本物の人が作りました」というマークをつけることができます。ボットを防ぐ公平な報酬
1人につき1回の報酬だけ。ボットや不正アカウントの悪用を防ぎます。プライバシーを守りながらアクセスを管理
大事なデータやAIモデルへのアクセスは、「人間の証明」がある人だけに許可されます。
(個人情報は見えません)本物の人だけがAI学習に参加
AIの学習や安全チェックには、確認された人間だけが参加できます。どこでも使えるクリエイターID
一度もらった「Proof of Humanity」は、いろいろなアプリやサービスで使えます。
クリエイターとしての信頼もたまりやすくなります。
Humanity Protocolで実現できること (What It Enables)
ディープフェイクの防止
AIコンテンツの「本物の出どころ」を示せる
人の確認がある、安全なAI運用
クリエイターやプラットフォームが不正なく収入を得られる
年齢制限や地域制限があるAI作業にも早く対応できる
デジタル情報やAI判断への信頼が高まる
これによってできるようになること
ディープフェイクの防止
AIコンテンツの「出どころ」がはっきりする
人が関わっている、安全なAIの運用
クリエイターやプラットフォームが不正なしでお金を得られる
年齢制限や地域制限のあるAIタスクにもすばやく対応
ネットの情報やAIの判断に、みんなが安心できるようになる