イーサリアム共同創設者のヴィタリック・ブテリン氏は、イーサリアムの「最大の技術的」リスクの1つである、コード内に潜むバグを解決するためには、人工知能(AI)が重要な役割を果たす可能性があると主張している。
ブテリン氏は2月18日の投稿で、AIによる監査がイーサリアムネットワークのバグを特定し修正することに対して期待を示している。
「私が期待しているAIの応用の一つは、コードの形式的検証とバグ探しをAIが支援することだ。現在、イーサリアムの最大の技術的リスクはコードのバグであり、それを大きく変えるものがあれば素晴らしい」とブテリン氏はツイートした。
One application of AI that I am excited about is AI-assisted formal verification of code and bug finding.
— vitalik.eth (@VitalikButerin) February 19, 2024
Right now ethereum's biggest technical risk probably is bugs in code, and anything that could significantly change the game on that would be amazing.
ブテリン氏のコメントは、イーサリアムが長期にわたり待望されていたデンクン(Dencun)アップグレードの実装が近づいている中で出たものだ。デンクンは現在、3月13日にメインネットに実装される予定だ。1月17日にはゴエリ(Goerli)テストネットで実装されたが、バグによりテストネットでの最終確定が4時間遅れた。
しかし、AIがイーサリアムベースのコードのバグを検出する信頼できるツールだとは誰もが同意しているわけではない。
2023年7月、オープン・ゼッペリンは、イーサリアムコードのネイティブ言語であるソリディティのスマートコントラクトのセキュリティ問題を特定するために、OpenAIのGPT-4を利用した一連の実験を行った。これらの実験中、GPT-4は28の課題のうち20で脆弱性を正確に特定した。

GPT-4が欠陥を特定できなかった場合、迅速に誤りを訂正するよう促すことができることが多かった。しかし、オープン・ゼッペリンは、AIが実際には存在しない脆弱性を作り出してしまうこともあると発見した。
同様に、セキュリティ企業セルティックの最高セキュリティ責任者カン・リー氏は、コーディング時にChatGPTのようなAI支援ツールを使用すると、解決するよりも多くのセキュリティ問題を生じさせるとコインテレグラフに語った。
リー氏は、AIアシスタントは経験豊富なコーダーの「アシスタント」としてのみ使用すべきだと推奨しており、開発者に対してコードの意味を迅速に説明するのに役立つとしている。「私は、コード分析やリバースエンジニアリングを行う人々にとって、ChatGPTは非常に有用なツールだと思う。間違いなく良いアシスタントであり、私たちの効率を大幅に向上させるだろう」とリー氏は語った。
ブテリン氏はAIの将来について楽観的な見方をしているが、以前には、特にオラクルのような「高リスク」なアプリケーションと共に実装する際には、ブロックチェーン技術とAIを組み合わせることに慎重になるべきだと開発者に警告していた。
「注意深くあることが重要だ。たとえば、誰かがAIオラクルを使用する予測市場やステーブルコインを構築し、オラクルが攻撃可能であることが判明した場合、巨額の資金が瞬時に消え去る恐れがある」とブテリン氏は指摘している。
翻訳・編集 コインテレグラフジャパン