2026/02/26
防災・危機管理ニュース
【シリコンバレー時事】人工知能(AI)モデル「クロード」を手掛ける米新興企業アンソロピックは24日、同社が定めているAI開発における安全基準を改定したと発表した。AIのリスクに関する透明性を向上させる一方で、安全を確保できない場合にはAIモデルの開発や公開を一時停止するとした規定を撤廃した。
アンソロピックはAI開発企業の中でも、AIの安全性確保に力を入れていると評価されてきた。同社幹部は米誌タイムのインタビューで、競合他社が開発を急ぐ中、自社だけが安全基準に従ってモデルの訓練を停止しても、リスクはなくならないと判断したと説明している。
(ニュース提供元:時事通信社)
防災・危機管理ニュースの他の記事
おすすめ記事









※スパム投稿防止のためコメントは編集部の承認制となっておりますが、いただいたコメントは原則、すべて掲載いたします。
※個人情報は入力しないようご注意ください。
» パスワードをお忘れの方