OpenAIはまもなく最大の規制上の課題に直面するかもしれない。イタリア当局は、同社が4月30日までにイタリアおよび欧州のデータ保護・プライバシー規制に準拠するよう求めており、人工知能(AI)の専門家たちは、これがほぼ不可能な課題であると言っている。

イタリア当局は3月下旬にOpenAIのGPT製品に対する包括的な禁止を発表し、西側諸国で初めて製品を完全に拒否する国となった。

イタリアの命令は、OpenAIに対し、法令遵守が実証できるまで同国でのChatGPTの運用を停止するよう命じた。

イタリアの当局はさらに、OpenAIは13歳以上のユーザーを対象とする自社の利用規約に準拠するために、年齢確認対策を実施する必要があると述べている。

イタリアおよび欧州連合(EU)全体でプライバシー法に準拠するために、OpenAIは、包括的なデータ収集プロセスの根拠を提供する必要がある。

EUの一般データ保護規則(GDPR)によれば、テック企業は、個人データで製品を訓練するためにユーザーの同意を得る必要がある。さらに、ヨーロッパで事業を展開する企業は、ヨーロッパ人にデータ収集および共有のオプトアウトオプションを提供する必要がある。

専門家によれば、OpenAIにとってこれは困難な課題となるだろう。なぜなら、同社のモデルは、インターネットから抽出された大量のデータから学習し、トレーニングセットに統合されているからだ。このブラックボックス型のトレーニングは、「エマージェンス」と呼ばれるパラダイムを作り出すことを目指しており、モデルには予測不能な特性が現れる。

これは開発者がデータセットの中身を正確に把握できないことを意味する。またマシンが複数のデータポイントを組み合わせて出力を生成するため、技術者が個々のデータを取り除くか修正することができない可能性がある。

AI倫理の専門家であるマーガレット・ミッチェル氏は、MITテクノロジーレビューに対して、OpenAIが個人のデータを特定し、モデルから取り除くことが非常に困難であると語った。

コンプラ順守を達成するために、OpenAIは、モデルのトレーニングに使用されるデータをユーザーの同意を得て取得したことを示すか、データをスクレイピングすることに「正当な利益」があったことを示す必要がある。

ニューカッスル大学のインターネット法を専門とするリリアン・エドワーズ教授は、MITテクノロジーレビューに対して、この紛争はイタリアの措置だけではなく、違反が非常に重大であるため、事件はおそらくEUの司法裁判所に持ち込まれるだろうと予測している。

これにより、OpenAIは非常に不安定な立場に置かれる可能性がある。ユーザーの要求に応じて個々のデータを特定および削除できず、またデータに変更を加えることができない場合、同社は4月30日の期限後もイタリアでChatGPT製品を運用できなくなるかもしれない。

さらに、フランス、ドイツ、アイルランド、および欧州連合の規制当局も現在、ChatGPTを規制するための措置を検討しているため、同社の問題はそこで止まらないかもしれない。