top of page

被打開的潘朵拉盒子,是什麼讓學者們擔心 AI 的發展

小時候看魔鬼終結者的時候真的覺得很可怕,那個機器人很聰明,又會模仿人的聲音。當機器人被賦予了獵殺主角的目標時,會排除萬難的想要達成目標。


帶著這種電影對 AI 所塑造的既定印象,長大後不免會把人工智慧可能帶來的災難聯想到電影情節。甚至會擔心自己的工作會不會被取代?


其實與其放任自己的假想焦慮延伸,不如來看看專家是如何看待這件事情的。


【人對於未來的想像力很有限】


人們很喜歡透過學習歷史盼望得以鑑往知來,這種直覺的方式常常出現在我們的生活之中。


舉例來說,在投資股票時,大多數的人都會根股票的歷史價格來判斷未來可的價格。這種錨定的現象讓我們誤以為可以透過學習過往的規律,窺探未來。


但是這種傳統的方式沒有辦法預測破壞式的創新,尤其是 AI 這種科技方面的創新。想要推測一個從未出現的現象,線性式的思維是沒有辦法涵蓋等比級數突破的速度。


另外一個明顯的例子就是電腦了,當電腦在上一代問世時,人們也擔心文書處理的工作會不會被電腦取代。但是因應而生的反而是更多的文書處理和應用的需求,像是小編這種工作的出現。


由此可知,從過往的經驗來推測未來不一定是可靠的。這不禁讓我們思考,那怎麼樣才能跳出框框思考?


【從專家的角度看待 AI 發展的潛在危險】


一個很簡單的方法,就是從專家的角度看事情。我們不求自己能夠擁有跳躍性的思維和遠見,但是可以學習專家的看法讓自己更了解事情的面貌。


像是 Geoffrey Hinton,人稱為 AI 教父,前陣子就發表了他對於未來可能方展的面貌。


對於多數人來說,他選擇從 Google 的離職看似是一顆震撼彈,但是我們可以從他過往的言論略知一二。


在一篇 Financial times 的文章中揭露 Hinton 對於公司的忠臣,使他無法公開的表態。所以最後他選擇離職,以便能夠為 AI 產業的發展發聲。


他提到 AI 對於社會的影響不僅僅是勞動力的重新分配,更甚的是他對於社會的影響,AI 可以創造出輿論的力量。


當然,在某次的訪談中 Hinton 表示他在美國軍方的討論中所看到的細節,包含軍事方面如何透過 AI 賦予地雷目標,讓地雷更容易的摧毀敵人。


不禁讓他覺得,如果把 AI 的超能力賦予了錯誤的目標,或是落於錯誤的人手中,那後果將是不堪設想。


對於 AI 的規範,Hinton 是表示贊同的,並且透過實際的行動來提倡其重要性。


【AI 在文化上可能帶來的衝擊】


我們也可以從另外一位學者的角度來看 AI 的影響。近期人類大紀元的作者 Yuval Noah Harari 分享了他對於 AI 的看法。


他舉例說在不遠的未來,2024 舉行的總統大選。想像政治的角力是經手 AI,產出極度具有說服力的文案,假的新聞。


能夠透過人類所熟知的語言能力,創造出極具說服力的故事,不正是 AI 最擅長的事情嗎?


假以時日,當 AI 具有不斷的產出這種影響人類決定的資訊時,是不是代表著這項工具坐擁了文明的控制權。


想像一下當 AI 創造故事,譜出樂曲,撰寫法律,甚至是宗教文字上面的闡述,文明其實都是架構於這些海量的文字上,而我們的未來將是經手 AI 來決定這些文字的內容。


更讓人擔憂的是,AI 所產出的東西遠比人類更有說服力,是人類無法輕易改寫的。


這可能代表著民主的終結,尤其是當我們無法分辨這段論述是來自人還是機器,一直以來所認知的文字紀錄民主的規範是否還通用呢?


【規範必須要來得及時】


從兩位專家的角度來看,AI 可能不會像魔鬼終結者一樣追殺人類。但是很有可能被利用於不當的角度,造成傷亡,操弄輿論,更甚的毀壞民主或文明的根基。


這也是為什麼 Sam Altman 一直強調,與其一次性的推出產品讓社會恐慌,比較負責任的態度是慢慢的推出這項科技,讓人們也讓政府可以反應這項改變,而不是被打個措手不及。


我們雖然還不完全知道 AI 背後運作的細節 (為什麼有時候 AI 就是不受控),但是我們還是可以慢慢的去制定規範,以免有一天這樣的發展帶來無法挽回的後果。


身為未來必須和這些科技共存的你我,其實也可以為自己的選擇負責,想想什麼樣的規範是必須的然後提倡,或是傳承給下一代。

11 次查看0 則留言

Comments


bottom of page