OpenAIが画像識別システム 学習から特定の作品を除外する仕組みも
【東京総合 = テクノロジー】米新興OpenAIは現地時間7日、同社のAIモデル「DALL·E 3」によって生成された画像を高い精度で判別できる独自の識別システム(クラシファイアー)を発表した。
OpenAIはすでに、「DALL·E 3」で生成された画像に「Coalition for Content Provenance and Authenticity(C2PA)」と呼ばれる業界標準のメタデータを付与する仕組みを導入していた。コンテンツの出所を証明するための暗号化された証明情報を含ませることで、AI生成画像かどうかを見分けられるようにした。しかしこのタグは後から簡単に除去できるなど課題があった。
今回の識別システムも追加で活用することで、規制当局などの懸念を払拭する狙いがある。DALL·E 3が生成した画像を約98%の確率で正しく識別することができ、人間が作成した画像については0.5%未満の誤検知率に抑えられているという。AIによって生成されたフェイク画像が問題となる中、生成画像かどうかを簡単に見分けられる基盤としての役割を担う。
またOpenAIは、研究機関や非営利団体など、第三者による識別システムの評価やフィードバックを得るため、「Researcher Access Program」と呼ばれるテスター向けのアクセス申請を開始する。有効性や実社会での活用や、AI生成コンテンツの特性などの課題について、独立機関での研究を促進したい考えだ。
発表の中で同社は、「Media Manager」と呼ばれる新たなシステムの開発も進めていることを明らかにした。Media Managerを使えば、創作者やコンテンツ所有者が自らの作品を特定し、それらをAIの機械学習に活用しないよう除外できるようになる。
著作権問題でクリエイターと軋轢が深まる中で、来年までのシステムの提供を目指し、解決の糸口にしたいようだ。