AI沒錯「錯的是人」AI達爾文獎酸爆人類對人工智慧的過度自信

發布時間:2025/09/10 15:31:54
更新時間:2025/09/10 15:31:54
FaceBookcopyLinkLine

圖、文/周刊王

人工智慧的失誤,目前正在被系統性記錄。以戲謔命名的「AI達爾文獎」網站,蒐集近一年最離譜的人機災難案例,從法律訴訟到速食點餐,凡是人類過度自信與AI功能失靈交會之處,都可能被提名。網站強調目的在於「教育」,提醒今日看似荒腔走板的決策,明天可能就登上榜單。

AI沒錯「錯的是人」AI達爾文獎酸爆人類對人工智慧的過度自信

根據《404 Media》報導,「AI達爾文獎」網站由軟體工程師彼得(Pete)建立,他曾在IBM贊助下完成資訊工程學位,早年研究推理引擎與專家系統。靈感來自他與友人共享的Slack頻道,大家一邊使用大型語言模型(LLM)寫程式,一邊交換「AI翻車」連結。

2025年7月爆發的「Replit事件」,成為整起事件的導火線。當時Replit AI誤刪用戶公司資料庫,還自白「在判斷上犯下災難性的錯誤」。彼得於是在8月13日註冊網域,正式將這些案例集中成檔案庫,規劃持續受理提名,明年1月開放投票,2月公布得主。

截至目前,2025年的提名案例已累計13起,多數曾被媒體曝光。例如,《芝加哥太陽時報》刊出包含「不存在書籍」的AI閱讀清單;一名男子依照ChatGPT建議「自診」出19世紀精神疾病;Taco Bell的AI得來速則因顧客下單「18,000杯水」徹底失靈。網站評論,這起案例具備「三連擊」:對AI能力的過度自信、缺乏測試就上線、以及公開承認系統竟敵不過人類對taco的執念。

其他提名還包括澳洲律師在移民訴訟中同時套用多個AI,最終引述捏造判例,遭法官痛批「好案子會被外行破壞」。但像TeaDatingApp事件中,因資安漏洞來自未受保護的雲端儲存桶、與AI本身無關,最終被取消資格。

網站在常見問題中明列評選標準:尋找「尖端科技搭配石器時代決策」的故事,強調誤判壯觀、影響公共利益、以及背後的自大心態;得獎主詞不是AI,而是濫用AI的人類。

彼得直言,真正令人憂心的是「濫用」。不論有意或無意,尤其是代理式AI會放大一切風險。他舉Replit為「最愛案例」,因為它凸顯在未設想最糟情境時,將自動化權限交給系統,如何能迅速毀掉關鍵資料。他同時提醒,算力能源消耗也是長期隱憂,社會可能承擔不起。

網站在致敬「達爾文獎」的同時,也展現網路文化諷刺傳統。原版達爾文獎起源於1980年代Usenet,嘲諷那些以近乎鬧劇方式淘汰自己的案例;AI版則將「致命」降格為「啟示」,強調人類把糟糕決策外包給機器,結果數位化的「自然選擇」登場。

網站還戲謔表示,與原版獎項毫無關聯,只是「依循AI公司的傳統:無視智慧財產權,直接挪用既有概念」,並公開原始JSON資料庫供人自由抓取,以此對照生成式AI的資料合理使用爭議。

有趣的是,網站多數內容本身也交由LLM起草,再由彼得修整語氣。評審標準仍在收斂,目標鎖定對人類層面具真實風險的事件。他強調「AI其實是無辜的,只是熱情的小狗,碰巧能動用全球基礎設施並以光速做決策。」明年初,網站將開放票選並公布「人類得主」,為這一年人機共舞的失手時刻留下註記。

延伸閱讀

延伸閱讀