報導:ChatGPT的用電量是一般家庭1.7萬倍以上

鉅亨網新聞中心
報導:ChatGPT的用電量是一般家庭1.7萬倍以上(圖:shutterstock)
Tag

人工智慧正在消耗大量電力。

根據《The New Yorker》報導,OpenAI 的聊天機器人 ChatGPT 每天可能會消耗超過 50 萬千瓦時的電力,來回應約 2 億個請求。

報導指出,依據美國家庭平均每天用電量約為 29 千瓦時。 將 ChatGPT 每天的用電量除以一般家庭的用電量可知,ChatGPT 的用電量是一般家庭用電量的 17,000 倍以上。

如果進一步採用生成式人工智慧,那麼,這些應用還可能會消耗更多的資源。

根據荷蘭數位經濟學家 Alex de Vries 此前發表的論文,如果 Google 將生成式 AI 技術整合到每次搜尋中,每年將消耗約 290 億千瓦時。報導稱,這比肯亞、瓜地馬拉和克羅埃西亞等國家一年的用電量還要多。

De Vries 表示,人工智慧非常耗能,這些人工智慧伺服器中的每一個所消耗的電力,已經相當於十多個英國家庭的總和。

儘管如此,估算蓬勃發展的人工智慧產業消耗的電力仍然很難確定。 根據 The Verge 報導,大型人工智慧模式的運作方式存在相當大的差異,而一直推動這項繁榮的大型科技公司並沒有明確透露其能源使用情況。

然而,De Vries 在他的論文中根據輝達 (NVDA-US) 公布的數據進行了粗略的計算,De Vries 在論文中估計,到 2027 年,整個人工智慧領域每年將消耗 85 至 134 太瓦時 (千瓦時的十億倍)。

De Vries 預估,到 2027 年,人工智慧電力消耗可能佔全球電力消耗的 0.5%。 「我認為這是一個相當可觀的數字。」

不過,也有另一些看法認為,比起 AI 所創造的價值,那麼這些電力耗費反而相對要少得多。

社群網路上,有人引用題為《The Carbon Emissions of Writing and lllustrating Are Lower for Al than for Humans》的論文,講的是 AI 在畫畫和寫作上的碳排放量一個比人類少 310 到 2900 倍,一個比人類少 130 到 1500 倍 。

此前,OpenAI 執行長 Sam Altman 在今年 1 月的達沃斯論壇也提到,AI 非常耗電,其未來取決於清潔能源的突破,隨著技術越來越成熟,AI 將消耗越來越大量的電力,如果能源技術無法突破,就無法實現這一目標。