当你打开这篇文章的时候,你的模型可能正在安静地训练。
模型的身后,有飞速运转的GPU,为它提供训练的动力。
曲线显示,它的学习情况良好,你在一旁露出了“孺子可教”的围笑。
就在此时,有人向你发射了直击灵魂的提问:
你总是关心模型学得好不好,就不关心它学得累不累 (误) ,就不关心它排了多少二氧化碳?
发问的是名叫Emma Strubell (简称艾玛) 的研究人员,来自美国马萨诸塞大学阿姆赫斯特分校。
艾玛和小伙伴一起,研究了许多优秀NLP (自然语言处理) 模型的碳排,还和人类日常生活的碳足迹做了对比:
比如,训练一只Transformer的碳排,相当于从坐飞机在旧金山和纽约之间往返200次。
过不了多久,团队就会前往ACL 2019,与NLP领域的佼佼者们,分享自家的成果。
而在那之前,这项酸爽的研究,已经在推特上引发了大规模围观,有2200人点赞,也惹来了不小的争议。
能排多少吨?
如果看艾玛提供的数据,训练好一只NLP领域的State-of-the-Art,包括调参包括实验,大概需要排放3.3万磅二氧化碳,相当于15吨:
而要训练一只Transformer,包含神经网络架构搜索 (NAS) 的那种,排放二氧化碳大概39.5万磅,相当于180吨。
比刚才的SOTA多了10倍不止。
那么,这些吨位到底是什么概念?
如果还看艾玛提供的数据:
训练一只Transformer的碳排放量,相当于把三辆汽车从全新用到报废;
如果换算成,一个人从纽约坐飞机去旧金山,再从旧金山回纽约,可以往返200次。
一个 (平均) 美国人10年日常生活的碳排,不过如此。
一个 (平均) 地球人30年日常生活的碳排,也不过如此。
现在,完整论文还没放出,艾玛说快了快了。
即便如此,惊人的数据也已在众人瞩目之下,收获了许多质疑:
“你这碳排怎么算的?”
谷歌大脑的研究员David Ha,就提出了问题:
用千瓦时作指标才比较科学吧。因为不同的能源,每千瓦时的碳排会差出很多啊。看数据:
他觉得,如果不知道能源是什么,就计算二氧化碳排放量,作为一篇论文并不严谨;
但如果是为了让大家重视环境问题,用碳排来博眼球,那就说得通了。
评论区,有同样感受的人类不在少数:
看来保护地球,也需要有一颗严谨的心。
One More Thing
当然,观众大多还是对这项研究表示喜闻乐见,有人说:
以后交论文的时候,应该要求把碳排信息附上。
阁下以为如何?
— 完 —
“