Core Concepts
AIモデルの現在の能力と持続可能なソフトウェア開発への貢献を明らかにする。
Abstract
情報技術の急速な進歩により、ソフトウェア開発の環境への影響が懸念されています。大規模言語モデル(LLMs)は、選択されたプロンプトに対してコードを生成する際に持続可能性を統合できる能力を持っているかどうかを調査しました。新しく定義された「グリーン容量」メトリックを使用して、人間と3つのLLM(GitHub Copilot、OpenAI ChatGPT-3、Amazon CodeWhisperer)と比較した結果、AIモデルは持続可能性メトリックを最適化することで生成されるコードの持続可能性が向上することが示されました。しかし、これらのモデルはまだ使用時の二酸化炭素排出量削減意識が不足していることが明らかになりました。
Stats
2022年に推定された世界全体で240-340 TWhのデータセンター電力消費量
大規模NLPモデルの訓練中に発生したCO2排出量は車両ライフサイクルよりも1〜10倍高い
GPT-3の開発時に生成されたCO2相当量は552トン
Quotes
"大規模言語モデルは広く展開される可能性があり、それに伴う二酸化炭素排出量が増加する可能性がある"
"グリーンコーディングはソフトウェア開発の環境への影響を減らす戦略として頻繁に言及されます"
"AIツールは特定の持続可能性メトリックを最適化することで生成されるコードの持続可能性を向上させます"