AIゲームのキープレイヤーであるOpenAIは、悪意のある利用を阻止することを目的とした一連の行動を発表した。米国で選挙の年が近づいていることが、これらの行動の動機となっている。OpenAIは、選挙プロセスの完全性を確保するのに役立つはずの画像出所分類器の実験を行っている。
生成された画像は、ビジュアルメディアの世界に浸透している。このトレンドは、良くも悪くも計り知れない可能性を秘めており、OpenAIはこの分野で最も著名なプレイヤーの一社だ。同社はChat GPTやDall-Eなどを手がけている。2024年はAIに関して最も影響力のある年になるかもしれないが、米国では選挙の年でもある。AIが生成した画像がより身近になり、光子を使った本物の画像と区別がつかなくなるにつれ、対立が生まれつつある。生成アルゴリズムは、ビジュアルストーリーテリングの民主化に貢献すると同時に、ビジュアル情報の信憑性に関して大きな脅威となっている。
2024年のOpenAIの展望
最近のブログ記事で、同社は世界的な選挙にまつわる不正行為に対抗するための戦術と戦略の一部を明らかにした。同社は、なりすましを防ごうとする新しいツールを約束している。(昨年、AIによる書き込みを特定するはずだったツールはあまり成功せず、ひっそりと閉鎖された) パーソナライズされた説得の悪用もロードマップにあり、同社はこの分野でツールがどの程度有効かを見極めようとしている。これらの行動は、ほとんどが文章コンテンツの分野に関連している。
OpenAI – 生成された画像についてはどうだろうか?
OpenAIは、いくつかの画像の実証に取り組んでいると述べている。同社は、Coalition for Content Provenance and Authenticity(C2PA)と協力している。C2PAは、映画制作ビジネスの主要なプレーヤーが参加しているイニシアティブで、いくつかの記事で紹介されている。アドビ、キヤノン、ニコン、ソニー、ライカなどが含まれる。ライカはこのイニシアティブのガイドラインに準拠したカメラ、M11-Pを最初に発売した。ソニーは、いくつかの既存カメラで間もなくこの争いに加わる。
この取り組みにより、同社の画像生成アプリ「Dall-E」から発信されるすべてのファイルに何らかの認証情報が刻印されることになるはずだ。
Dall-E実績分類器
もうひとつのフロントは、もう少し革新的で、間違いなくもっと興味深い、Dall-E実績分類器だ。このツールはまだ実験段階だが、完成すればDall-Eが生成した画像を識別する力を持つはずだ。どこまでできるかはまだ不明だ。また、現段階では、他の画像生成装置で識別が容易なものはないが、このような分類がうまくいけば、現場に大きな影響を与えるかもしれない。
前途は多難
これらの対策は、大海の一滴のように見えるが、勢いを増すかもしれない(そして私はそうすべきだと思う)傾向を示している。十分な情報に基づいた選択をするためには、ある程度の信頼性が必要であり、それは私が生きたいと願う社会の中核をなすものである。
掲載画像クレジット:CineDによるMidJourneyで生成されたAI。