當地時間周二,OpenAI首席執行官山姆·奧特曼在迪拜舉行的世界政府峰會(WGS)上通過視頻連線發表講話,警告人工智能(AI)發展可能因“社會失衡”引發嚴重風險,并呼吁建立類似國際原子能機構(IAEA)的全球性監管框架。他坦言,這一潛在威脅令其“徹夜難眠”。
奧特曼指出,AI的破壞性未必源于系統本身的惡意,而可能源于社會層面的微妙失衡。他解釋稱,當個體態度與群體規范嚴重沖突時,即使AI系統無明確攻擊意圖,也可能因技術與社會環境的復雜互動導致災難性后果。“相比機器人當街故障,我更擔憂那些看似無害卻能引發連鎖反應的潛在風險。”他強調,AI的發展速度遠超社會預期,亟需建立國際協調機制以規避失控風險。
為應對這一挑戰,奧特曼提議仿效國際原子能機構模式,成立跨國家、跨領域的AI監管組織。他特別強調,AI行業不應主導規則制定過程。“包括OpenAI在內的科技公司需保持謙遜,監管框架應由多方共同參與構建。”他透露,當前全球各國正密集討論AI治理方案,這一辯論階段“健康且必要”,但未來幾年必須形成具有國際共識的行動計劃。
盡管對風險保持警惕,奧特曼仍對AI的教育應用前景表示樂觀。他提到,此前因擔心學生濫用AI撰寫論文而產生的抵制情緒正在消退,如今越來越多學校將AI視為培養未來技能的關鍵工具。“這讓我深受鼓舞。”他同時將當前AI技術比作早期黑白屏手機,“再給我們幾年時間,它將顯著進步;十年后,其能力將超乎想象。”
此次發言中,奧特曼未披露具體監管方案細節,但重申“透明度”與“全球協作”兩大原則。隨著AI技術加速滲透社會各領域,其呼吁的跨國監管框架能否落地,已成為全球科技治理的重要議題。
(舉報)
