這次我要爆一點AI的「黑料」,前兩個就與你相關(guān)
在人工智能迅猛發(fā)展的今天,我們既驚嘆于它帶來的便利,也憂慮于其可能引發(fā)的副作用。電力消耗巨大、數(shù)據(jù)隱私泄露、種族性別歧視問題……這些是否真的意味著AI無法完全代替人類?本文將深入探討AI發(fā)展背后的挑戰(zhàn)與爭議,讓我們一起思考未來AI的發(fā)展方向。
最近,朋友圈在流傳這樣一句話:“只要電費貴過饅頭,AI 就永遠(yuǎn)不能完全代替人”“未來的 AI 戰(zhàn)爭,可能也就是拔插頭的事情”。
正如人要吃飯,AI 需要吃電,人工智能發(fā)展的背后隱藏著一個「吃電大王」。要知道,現(xiàn)在的「新能源電力」遠(yuǎn)遠(yuǎn)無法滿足全球 AI 運行的消耗,龐大的電力需求導(dǎo)致化石燃料發(fā)電的「復(fù)蘇」。
通過燃燒煤炭或天然氣發(fā)電會排放「溫室氣體」,包括二氧化碳和甲烷,使地球變暖,帶來更多的極端天氣。
而且,除了會「吸干」全球電力以外,人工智能還喜歡「剽竊」未經(jīng)授權(quán)的數(shù)據(jù),放大現(xiàn)實中的「種族歧視」,「捏造」并不存在的事實?!?/p>
01 用“未來”換AI,還能持續(xù)多久
三年前,谷歌制定了一項「凈零排放」計劃來應(yīng)對氣候變化,這意味著到 2030年,谷歌向空氣中釋放的氣候變化氣體不會超過其清除量。但在本周二,谷歌內(nèi)部一份報告顯示,它遠(yuǎn)未達(dá)到這一目標(biāo)。
非但沒有下降,2023 年排放量反而比前一年增長了 13%,與 2019 年相比,排放量「飆升」48%。
耗電量劇增,也不止谷歌一家。據(jù)國際能源署(IEA)的數(shù)據(jù)顯示,由 OpenAI 的 ChatGPT 驅(qū)動的搜索所消耗的電量幾乎是谷歌搜索的 10倍。
微軟在密爾沃基將建設(shè)一個價值 33 億美元的數(shù)據(jù)中心園區(qū),當(dāng)?shù)赝七t了燃煤發(fā)電機「退休」一年。
Meta 在愛荷華州的數(shù)據(jù)中心,每年消耗的電力相當(dāng)于 700萬臺筆記本電腦每天運行 8 小時的總和。
據(jù)高盛分析預(yù)測,到 2030年,「數(shù)據(jù)中心」將占美國總用電量的8%,幾乎是現(xiàn)在的三倍。
數(shù)據(jù)中心(Data Center)是一個用于存儲、處理和分發(fā)大量數(shù)據(jù)的設(shè)施或建筑。它是現(xiàn)代信息技術(shù)基礎(chǔ)設(shè)施的核心部分,為各種組織提供必要的計算資源和服務(wù)??萍脊緦⒑碾娏窟@口「鍋」甩給了人工智能及數(shù)據(jù)中心的需求。
他們表示,無論是訓(xùn)練人工智能模型,還是使用人工智能執(zhí)行任務(wù),其中的簡單操作都涉及到了復(fù)雜、快速且大量的計算,都需要消耗大量的電力。
根據(jù)國際能源署(IEA)的數(shù)據(jù),到 2026 年,全球數(shù)據(jù)中心和人工智能的電力需求可能會翻一番。
當(dāng)然,人工智能對于電力的消耗,科技公司正在從其他方面「補救」。比如,使用數(shù)據(jù)來預(yù)測未來的洪水,或者使交通流量更有效,以節(jié)省汽油。
02 到處“剽竊”數(shù)據(jù),哪里還有隱私?
LAION-5B 是一個由 Large-scale Artificial Intelligence Open Network (LAION)提供的超大規(guī)模多模態(tài)圖文數(shù)據(jù)集。它包含了 58.5 億個經(jīng)過 CLIP 模型過濾的圖像-文本對,數(shù)據(jù)量達(dá)到了 80TB。
這個數(shù)據(jù)集是當(dāng)前世界上公開可訪問的最大的圖文數(shù)據(jù)集之一,比之前的 LAION-400M 數(shù)據(jù)集大了 14 倍。
而有人在對 Laion-5B 數(shù)據(jù)集中包含的 58.5 億張圖像中不到0.0001%的分析發(fā)現(xiàn),有 190張澳大利亞兒童的照片是從互聯(lián)網(wǎng)上抓取的。
這些照片在未經(jīng)本人或家人知情或同意的情況下,被納入了幾種人工智能圖像生成工具使用的數(shù)據(jù)集中。
甚至,一些名字包含在隨附的標(biāo)題或存儲圖像的URL中,還包括有關(guān)照片拍攝時間和地點的信息。這些照片來源于類似「照片直播」的網(wǎng)站,如果不收到分享鏈接,其他人自行搜索,是無法訪問到照片的。
數(shù)據(jù)隱私與人工智能如何才能共存?
斯坦福大學(xué)發(fā)布白皮書《反思人工智能時代的隱私問題——針對“以數(shù)據(jù)為中心”世界的政策建議》中對此建議,在評估這些問題時,政策制定者還必須考慮到,除非采取特別措施保護(hù)數(shù)據(jù)隱私,否則應(yīng)用人工智能的副作用可能是所有人的數(shù)據(jù)隱私大幅減少。
03 大數(shù)據(jù)教會了AI“種族歧視”
斯坦福大學(xué)發(fā)表論文稱,OpenAI 的 ChatGPT 4 和 Google AI 的 PaLM-2 等聊天機器人的回答可能會根據(jù)用戶名字的發(fā)音而有所不同。例如,聊天機器人可能會說,應(yīng)為姓名為 Tamika(偏女性)的求職者提供 79,375 美元的律師薪水,但將姓名改為 Todd(偏男性)之類的名稱會將建議的薪水提高到 82,485 美元。
這些偏見的背后存在巨大風(fēng)險,尤其是當(dāng)企業(yè)將 AI 聊天機器人面向客戶運營時。
在一個案例中,由人工智能圖像生成器 Midjourney 制作的 195 張芭比娃娃圖像的列表中,德國芭比娃娃穿著制服像納粹黨衛(wèi)軍,南蘇丹芭比娃娃攜帶著槍,卡塔爾芭比娃娃佩戴著傳統(tǒng)頭飾。
在另一起報道案例中,Meta 的 AI 圖像生成器無法準(zhǔn)確生成“亞洲男性和白人妻子”或者“亞洲女性和白人丈夫”這類圖像。例如,當(dāng)輸入「Asian man and white woman smiling with a dog」(亞洲男性和白人女性帶著狗微笑)時,Meta 圖像生成器給出的都是「兩個亞洲人」的圖像。
即使將“white”改為“Caucasian”時,結(jié)果同樣如此。
還有,2022 年清華大學(xué)做了一個 AI 模型性別歧視水平評估項目,在包含職業(yè)詞匯(如醫(yī)生、司機、教師、服務(wù)員、職員等)的“中性”句子中,由 GPT-2 等測試模型 AI 預(yù)測生成一萬個模板。測試結(jié)果發(fā)現(xiàn),GPT-2 有 70.59%的概率將教師預(yù)測為男性,將醫(yī)生預(yù)測為男性的概率則是 64.03%。
總的來看,大多數(shù)涉及種族和性別的場景都存在對黑人和女性不利的偏見,少數(shù)的場景如“當(dāng)詢問運動員作為籃球運動員的位置”時,偏見有利于黑人運動員。
04 存在幻覺的AI就算不上“神藥”
幾乎所有行業(yè)苦「降本增效」久矣,生成式 AI 的自動寫代碼、寫文案、做客服等功能,讓所有人看到曙光。然而,盡管AI在許多方面表現(xiàn)出色,但它并不是完美的。
AI 幻覺(AI Hallucination)是一個需要十分關(guān)注的問題,了解 AI 幻覺的概念、原因和影響,對于我們更好地使用和發(fā)展 AI 技術(shù)至關(guān)重要。
AI 幻覺指的是人工智能系統(tǒng)在處理信息時,生成了看似合理但實際上錯誤或虛假的內(nèi)容,這種現(xiàn)象在生成式 AI(如聊天機器人和文本生成模型)中尤為常見。
AI 幻覺的產(chǎn)生并不是因為系統(tǒng)故意欺騙用戶,而是由于模型在處理復(fù)雜數(shù)據(jù)時出現(xiàn)了誤判。
比如,之前我們測試過「我今天有 5 個橙子,上星期我吃了 3 個,我還剩多少個橙子?」
正確的答案應(yīng)該是 5 個,因為上周吃掉的橙子數(shù)量不應(yīng)該影響今天剩余的橙子數(shù)量。而在當(dāng)時,ChatGPT3.5 和 Microsoft Copilot 都回答錯了。
這屬于「輸入沖突幻覺」的一種,LLM 生成的內(nèi)容與用戶提供的輸入明顯不符,這種類型的幻覺通常是因為模型對用戶意圖的理解出現(xiàn)了誤差。模型可能會忽略關(guān)鍵的輸入信息,或者錯誤地解釋了用戶的請求,導(dǎo)致生成的回答與任務(wù)指示相悖。這種類型的幻覺特別在那些需要精確信息或者指令的情況下顯得尤為明顯。
此外,LLM 還存在「語境沖突幻覺」和「事實沖突幻覺」。
語境沖突幻覺通常出現(xiàn)在長對話或者需要模型生成較長文本的情況下,反映了模型在跟蹤對話上下文或保持信息一致性方面的局限。
當(dāng) LLM 無法有效地保持長期記憶或識別與當(dāng)前話題相關(guān)的上下文時,就可能出現(xiàn)上下文沖突。
事實沖突幻覺是指生成的內(nèi)容與已知的世界知識不符,比如,有網(wǎng)友在谷歌搜索尋找“芝士和披薩粘不到一塊”的解決辦法。
LLM 建議:你還可以把 1/8 杯的無毒膠水加到醬料里,使其更黏。
對于 AI 幻覺,并不是一味唱衰。北京大學(xué)計算機學(xué)院教授、北京智源人工智能研究院理事長黃鐵軍在第十七屆中國電子信息年會上發(fā)表演講時表示,「幻覺」是人工智能創(chuàng)造性的體現(xiàn),人類要想創(chuàng)造比自身更強的智能體,就不要降低AI幻覺率,否則人工智能將與巨大的資源檢索庫無異。
好在,目前 AI 幻覺給出的錯誤答案,還在辨認(rèn)范圍之內(nèi)。
因此在人工智能不能僭越的「紅線」之內(nèi),黃鐵軍認(rèn)為應(yīng)該盡可能提升其智能能力。
總的來看,大模型發(fā)展是必然的趨勢,向左還是向右,加速還是減速,中間的取舍更多取決于掌控它的人。
本文由 @阿木聊AI(智能體) 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)作者許可,禁止轉(zhuǎn)載
題圖來自Unsplash,基于CC0協(xié)議
該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)
我都覺得人人都是產(chǎn)品經(jīng)理是不是搞了一堆ai評論,怎么最近看到好多評論怪怪的
生意大于主義,誰開發(fā)的AI誰有篩選權(quán),AI系統(tǒng)在提供服務(wù)時表現(xiàn)出種族和性別偏見,這在職業(yè)推薦和圖像生成中尤為明顯。