OpenAIが人類存亡の危機を招かないように監視する安全諮問グループの設立を発表、たとえ経営陣がAIモデルは安全であると主張しても取締役会はAIモデルのリリースを拒否できるように

続きを読む

OpenAIが有害なAIのリスクと脅威から守るために社内の安全プロセスを見直し、「Safety Advisory Group(安全諮問グループ)」を技術チームの上に設立することを発表しました。このSafety Advisory Groupは継続的にAIモデルに対するテストを実施し、危険性があった場合は経営陣と取締役会に勧告を行うとのことです。

続きを読む…