首頁—正文
分享到:
AI迅猛發(fā)展,人類能否穩(wěn)控“方向盤”
2025年03月27日 08:47 來源:中國新聞網(wǎng)

  中新社博鰲3月26日電 題:AI迅猛發(fā)展,人類能否穩(wěn)控“方向盤”

  中新社記者 王曉斌

  全球各大企業(yè)在AI(人工智能)技術(shù)賽道上競相追逐,博鰲亞洲論壇2025年年會于3月26日舉辦的一場AI主題分論壇,關(guān)注相關(guān)的深層次話題:在AI技術(shù)迅猛發(fā)展的時代,人類能否繼續(xù)穩(wěn)坐“駕駛艙”,確保自己是掌控方向的司機,而非被動的乘客?

  為何人類必須掌控AI“方向盤”

  AI近年來的快速發(fā)展既令人振奮,又暗藏隱憂。上?茖W智能研究院首席戰(zhàn)略官、復旦大學經(jīng)濟學教授楊燕青指出,AI可能是人類歷史上最強大的通用技術(shù)!芭c蒸汽機、電力等增強人類體力的技術(shù)不同,AI直接賦能人類大腦,涉及計算與認知的深度融合。”楊燕青將AI特性描述為“類人”,這使得AI既能帶來生產(chǎn)力提升,也可能引發(fā)威脅人類生存的風險。

  中國工程院院士、清華大學智能產(chǎn)業(yè)研究院院長張亞勤介紹,2025年人工智能發(fā)展呈現(xiàn)三大趨勢:從生成式大模型邁向智能體,從預訓練走向推理,從信息智能走向物理智能和具身智能。

  隨著AI的快速迭代,一個令人不安的場景或從科幻電影中走向現(xiàn)實:本應協(xié)助人類的AI,可能因為算法偏差或外部操縱,做出違背倫理、危及人類利益的決策。

  人類如何掌控AI“方向盤”

  面對未知的AI風險,人類如何應對?中國科學院自動化研究所研究員、聯(lián)合國人工智能高層顧問機構(gòu)專家曾毅主張,將倫理安全融入AI開發(fā)的底層設計,視其為“第一性原則”,不可刪除、不可違背。他強調(diào),AI的倫理安全應成為技術(shù)發(fā)展的基因,確保其與人類價值觀保持一致。

  張亞勤進一步將AI風險分解為可信度與可控性兩個層面?尚哦纫驛I在執(zhí)行任務時遵循人類期望、倫理規(guī)范和社會法律,不產(chǎn)生誤導性、有害或不公平的結(jié)果;可控性則確保人類能有效監(jiān)控、干預和糾正AI行為,避免失控或不可預測的后果。他提出,設定技術(shù)紅線與邊界是關(guān)鍵,如限制智能體自我復制,以降低失控風險。

  在具體實踐上,國際社會已采取行動。歐盟《人工智能法案》于2024年實施,對高風險AI系統(tǒng)設定了嚴格的透明度和問責要求;中國2023年發(fā)布的《生成式人工智能服務管理暫行辦法》則明確要求企業(yè)對AI輸出內(nèi)容負責。這些技術(shù)與倫理并重的措施,旨在確保人類腳踩AI超速的“剎車片”,手握AI發(fā)展的“方向盤”。

  平衡AI:發(fā)展與治理的共生之道

  有人擔憂,給AI“裝上剎車片”會削弱其競爭力。曾毅介紹,其所在的團隊通過對大模型進行微調(diào),可以將安全能力提升20%至30%,對其性能幾乎沒有負面影響。這一發(fā)現(xiàn)證明,安全治理與技術(shù)發(fā)展可以并行不悖。

  當天在博鰲的討論最終匯聚成共識:AI治理需要構(gòu)建一個多元、立體的全方位治理體系。這一體系如同一個精密的生態(tài)系統(tǒng),既有自上而下的宏觀規(guī)劃,也有自下而上的微觀參與,涵蓋技術(shù)、社會、經(jīng)濟等多元維度。

  “我們怎么和人工智能共處?如何讓人工智能使得整個世界變得更好,人類應有更大的責任!睏钛嗲嗾J為,AI治理是每個人的使命。社會大眾應保持自身的價值觀和創(chuàng)新力,在多元的理念中把握好自己的“方向盤”。(完)

編輯:李奧迪