【シリコンバレー時事】人工知能(AI)モデル「クロード」を手掛ける米新興企業アンソロピックは24日、同社が定めているAI開発における安全基準を改定したと発表した。AIのリスクに関する透明性を向上させる一方で、安全を確保できない場合にはAIモデルの開発や公開を一時停止するとした規定を撤廃した。
 アンソロピックはAI開発企業の中でも、AIの安全性確保に力を入れていると評価されてきた。同社幹部は米誌タイムのインタビューで、競合他社が開発を急ぐ中、自社だけが安全基準に従ってモデルの訓練を停止しても、リスクはなくならないと判断したと説明している。 

(ニュース提供元:時事通信社)