ブロックチェーンセキュリティ企業CertiKの幹部によれば、OpenAIのChatGPTのような人工知能(AI)ツールを使ってスマートコントラクトを作成し、仮想通貨プロジェクトを構築すると、問題やバグ、攻撃経路が増える可能性がある。

CertiKの最高セキュリティ責任者であるカン・リー氏は、9月5日のコリア・ブロックチェーン・ウィークでコインテレグラフに対し、ChatGPTは経験豊富な開発者と同じ方法で論理的なコードのバグを検出できないと説明した。

リー氏は、ChatGPTがバグを特定するよりも多くのバグを作り出す可能性があり、これは自分のプロジェクトを構築しようとする初心者やアマチューレベルのコーダーにとっては壊滅的だと指摘した。

「ChatGPTは、訓練を受けていない多くの人々が参入することを可能にし、彼らはすぐに始めることができる。しかし、そこに埋め込まれた形態学的な設計問題を懸念する」と彼は語った。

「何かを書き、ChatGPTがそれを構築するのに役立つが、これらの設計上の欠陥のために、攻撃者が来始めると惨めに失敗するかもしれない」と彼は付け加えた。

むしろ、リー氏はChatGPTがコードの意味を説明するのが得意であるため、エンジニアのアシスタントとして使用すべきだと主張した。

「私はChatGPTがコード解析やリバースエンジニアリングを行う人々にとって非常に役立つツールだと思う。それは確かに良いアシスタントで、私たちの効率を大幅に向上させるだろう」と彼は語った。

彼は、特に何かを収益化しようとする未熟なプログラマーによるコードの記述に依存すべきではないと強調した。リー氏は、AIの急速な進展がChatGPTの能力を大幅に向上させるかもしれないと認めつつ、少なくとも次の2〜3年間は自分の主張が正しいと考えている。

AIでソーシャルエンジニアリングの懸念が増加

一方、Web3セキュリティ企業クォントスタンプの共同創設者兼CEOであるリチャード・マー氏は、AIツールがソーシャルエンジニアリング攻撃のリスクが高まっているとコインテレグラフに語った

マー氏は、クォントスタンプのクライアントがますます洗練されたソーシャルエンジニアリングの脅威に直面していると述べた。

「最近のものは、人々が機械学習を使ってメールやメッセージを作成しているようだ。それは数年前のソーシャルエンジニアリングの試みよりもずっと説得力がある」と彼は語った。マー氏は、我々が悪意のあるメッセージがAIによるものか人間によるものかを区別できない段階に近づいていると主張する。

「人間があなたにメッセージを送っているのか、かなり説得力のあるAIがあなたにメッセージを送っているのかを区別するのが難しくなるだろう」と彼は語った。仮想通貨業界はすでにターゲットにされており、一部はAIボットによってなりすまされている。マー氏は、これがさらに悪化するだろうと考えている。

「仮想通貨の世界では、各プロジェクトのキーパーソンの連絡先情報が含まれたデータベースが数多くある。ハッカーがそれにアクセスすれば、AIがこれらの人々全員に異なる方法でメッセージを送りつける子ことができる」と彼は語った。「全社員を訓練して、これらのものに対応しないようにするのは非常に難しいだろう」。

翻訳・編集 コインテレグラフジャパン