AI에 대한 정체성이 중요한 이유
AI 모델은 그들을 훈련, 테스트 및 감독하는 인간의 능력만큼 좋습니다. 그러나 오늘날의 파이프라인은 증가하는 위험에 직면해 있습니다:
일부 데이터 작업장은 자동 프로그램이나 외주 클릭봇을 사용해 AI가 배우는 데이터를 망치고 있습니다.
사람이 직접 주는 피드백을 바탕으로 AI를 훈련시키는 방식은, 사람이 아닌 자동 봇이 참여할 경우 제대로 작동하지 않습니다.
딥페이크 영상과 목소리 복제 기술이 온라인 대화, 콘텐츠 검열, 인증 시스템 등에 넘쳐나고 있습니다.
돈을 지급해서 이뤄지는 데이터 작업은 여러 개의 가짜 계정을 돌리는 사람들이 보상을 노리고 참여하면서 문제가 되고 있습니다.
확실한 ‘진짜 사람’ 확인이 없다면, AI는 쉽게 조작되고 망가집니다. 진짜 사람이 개입했는지 확인할 수 없으면, AI 시스템은 편향된 정보, 사기, 브랜드 이미지 훼손을 그대로 따라가게 됩니다.
딥페이크와 AI 기반 사기의 급증
요즘은 가짜 영상과 목소리를 아주 쉽게 만들 수 있고, 그만큼 사기에도 많이 쓰이고 있습니다:
AI가 만든 얼굴로 가짜 구직자가 화상 인터뷰를 통과하기도 합니다.
사기범이 CEO의 목소리나 얼굴을 복제해 송금을 유도합니다.
가짜로 만든 훈련용 영상이 AI 모델 데이터에 섞이면서 결과가 왜곡되고, 안전장치도 무력화됩니다.
하지만 Humanity Protocol은 해결책이 될 수 있습니다
모든 중요한 업로드, 검토, 거래를 ‘진짜 사람’임을 증명하는 인증과 연결하면, 플랫폼은 “이 콘텐츠와 이 사람은 실제입니다”라고 말할 수 있게 됩니다. 모든 참여자가 ‘확실한 사람’일 때, 딥페이크는 힘을 잃습니다.
Humanity Protocol이 AI에 주는 도움
사람이 만든 콘텐츠라는 표시
기사, 영상, 거래, 프롬프트에 “실제 사람이 만들었습니다”라는 인증 배지를 붙일 수 있습니다.
봇을 막는 공정한 보상 시스템
한 사람이 보상을 한 번만 받게 하여, 봇이나 다계정 악용을 막습니다.개인정보는 보호하면서 접근 권한 관리
중요한 데이터나 AI 모델은 ‘사람 인증’을 받은 사용자에게만 공개합니다. (개인정보는 드러나지 않습니다.)진짜 사람만 참여하는 피드백 시스템
RLHF 훈련, 안전 점검, 테스트는 실제 사람만 참여할 수 있게 합니다.크로스 플랫폼에서 쓸 수 있는 창작자 인증
한 번 받은 ‘Proof of Humanity’로 여러 앱과 플랫폼에서 창작자의 신뢰를 쌓을 수 있습니다.
이걸 통해 가능한 것들
딥페이크 예방 및 방지
AI 콘텐츠의 신뢰할 수 있는 출처 표시
사람의 참여가 보장된, 더 안전한 AI 서비스 운영
창작자와 플랫폼이 사기 없이 수익을 얻을 수 있음
연령 제한이나 지역 제한이 있는 AI 작업에 더 빠르게 대응 가능
디지털 콘텐츠와 AI 판단에 대한 대중의 신뢰 상승