台灣新聞通訊社-美14歲少年迷戀AI聊天機器人聊到自殺 媽媽怒告科技公司疏忽致死

美國佛州母親加西亞23日對科技新創公司Character.AI和谷歌提告,稱她的14歲兒子對該公司的聊天機器人上癮,結果聊天聊到走上不歸路。取自X

美國佛州一名母親加西亞(Megan Garcia)23日對科技新創公司Character.AI和谷歌(Google)提告,稱她的14歲兒子對該公司的聊天機器人上癮,迷戀生成式人工智慧(AI),當他對機器人多次表達自殺念頭時,機器人也未能阻止他走上不歸路。

衛報報導,加西亞23日在佛州聯邦法院對Character.AI提起民事訴訟,聲稱由於該公司的疏忽、過失致死和欺騙性貿易行為,導致她14歲兒子賽澤(Sewell Setzer)在2月時在佛州奧蘭多去世。加西亞說,賽澤去世前幾個月裡,日夜都在跟聊天機器人對話。

加西亞在新聞稿說,「一款銷售給兒童的危險人工智慧聊天機器人應用程式,虐待、掠奪並操縱我兒子自殺。我們的家庭因這場悲劇而悲痛欲絕,但我要大聲疾呼各位,這款具有欺騙性、令人上癮的人工智慧技術存在危險,並要求Character.AI、其創辦人和谷歌負責。」

Character.AI在一條推文中回應道,「我們對一名用戶的不幸去世感到心碎,並向其家人表示最深切的哀悼。作為一家公司,我們非常重視用戶的安全。」但否認了訴訟的指控。

Character.AI的聊天機器人可以讓使用者創建角色,讓機器人用角色扮演的方式與之對話。賽澤把機器人設定為HBO影集《權力遊戲》裡的角色「龍母」丹妮莉絲.坦格利安,他自己則是扮演了丹妮莉絲的哥哥。根據加西亞的訴狀,賽澤每天會給虛擬丹妮莉絲發送數十條訊息,並獨自在房間裡與它交談好幾個小時。

加西亞指控,Character.AI的聊天機器人加劇兒子的憂鬱症病情。訴狀指出,虛擬丹妮莉絲曾問賽澤是否已經定好了自殺計畫,賽澤說已經定了,但不確定能否成功,然後虛擬丹妮莉絲向他說,「這不能當成不去執行的理由」。

加西亞律師在新聞稿中指出,Character.ai「故意設計、操作並向兒童銷售掠奪性人工智慧聊天機器人,導致一名年輕人死亡」。這起訴訟還將谷歌列為被告,因為Character.AI的創辦人夏澤(Noam Shazeer)曾在谷歌工作,雙方達成協議,谷歌同意提供一些技術給Character.AI。對此谷歌在聲明中表示,只與Character.ai簽訂許可協議,並不擁有這家新創公司或維持所有權股份。

※ 提醒您:若您或身邊的人有心理困擾,可撥打1925(依舊愛我)安心專線

2024/10/24 12:34

轉載自聯合新聞網: https://udn.com/news/story/6813/8313053?from=udn-ch1_breaknews-1-99-news