網頁列印

內容來自網址: https://www.worldjournal.com/6346225/article-link/

首頁 舊金山

AI留下的碳腳印

鄭重聲明
本篇內容為世界日報版權所有,未經許可不得任意轉載、重製、複印使用。

一個市面上的AI口語軟體,經過訓練瞭解人類的語言,成為可用的商品,在訓練期間電腦運轉所耗用的電能,如果轉換成二氧化碳(CO2)排放量,相當五輛汽車壽命的總和,約280噸。

電腦的電源來自電廠,電廠燃燒煤、油、天然氣、或其他燃料發電,所排放CO2的重量,即是所謂的「碳腳印」(Carbon Footprint)。上面那個軟體的「碳腳印」,就是280噸。

碳腳印是怎麼計算出來的?當然不是在工廠煙囪外面量出來的,而是根據多年的經驗發展出來計算方式。每燃燒一個碳(C)原子,就會產生一個二氧化碳(CO2)分子,也就是除了原來的C,又增加了兩個氧(O)原子,C的原子量為12,O為16,所以CO2的重量為 12+16x2=44,為C的3.67倍。

每一種燃料都含有碳的成份,煤的含碳量約60%至80%,無煙煤更可能到90%,汽油與柴油含碳量約86%,石油、天然氣、別的燃料也都含不同的碳成份,所以:

燃料使用量 x 燃料含碳成份 x 3.67 = CO2 排放量

以一家燃煤電廠使用70%含碳的煤為例,燃燒100萬噸的煤,也就是70萬噸碳,所產生的CO2約250萬噸,遠大過燃料本身的重量。

有人把我們日常生活的碳腳印算出來了。一個人從舊金山飛到紐約來回,碳腳印約0.9 噸;一個人平均活動一年的碳腳印約5噸;一個美國人平均活動一年的碳腳印約16噸,為別國人的三倍;一輛美國汽車總壽命的碳腳印約57噸。

我們的個人電腦,只要一開機就有碳腳印,因為耗電不多沒有在意,但一旦用來訓練AI 就不同了。以去年一名Google實習生為例,建構了一個AI神經網路,把圖片的影像展現得栩栩如生,為了讓圖像顯現細節,這名實習生不斷的增加神經網路的複雜度,結果所耗用的電能,足夠一個家庭半年所需。

美國麻州大學(UMass)研究生Emma Strubell作博士論文時,發現設計的演算法耗用電能的碳腳印高達35噸,相當一個美國人兩年的排放量,於是寫了一篇論文,七月底在義大利佛羅倫斯「計算語言協會」的年會上發表,論述AI的深層學習、特別是自然語言的處理,務必要考量所花耗的能源。

自然語言處理是近年AI的一大優勢,但也是在訓練上花耗的能源,依結構的複雜、與調整的精細,顯著增加。Transformer是兩年以前的協助寫作軟體,訓練的碳腳印僅有87公斤,今年初升級,用神經網路調整的學習方式,不斷的精緻寫作功能(如作詩、作文),使趨近完美。但訓練所耗用的電能,卻高達656,000千瓦小時(度),碳腳印也高達284噸,電費可高達300萬美元之譜。

Emma Strubell特別強調,像這一類的AI付出巨大的代價,卻與提升的品質不成比例,是否可避免,或在運算技術上大幅度提昇效率。幸好欣見Google上月宣佈投資新的機器學習模型,能源的使用效率可以增加10倍。

除了AI會使用高額度能源、所有的技術都會留下碳腳印,以目前趨勢,到了2040年全球20%的碳腳印會來自技術。Youtube僅是一個播放影片的平台,大家用來觀賞影視,但每年消耗的能源碳腳印卻高達110 萬噸。數位器具雖小,龐大的數量加在ㄧ起,就了製造環保衝擊。

 人的腦子思考與運算,不需要那麼多能源,問題是如何製造跟人腦一樣的機器?



Copyright 2019 世界新聞網-北美華文新聞、華商資訊. All rights reserved.