Trong khi thông tin sai lệch và mối đe dọa AI chiếm lấy công việc của con người tiếp tục thống trị cuộc trò chuyện về sự nguy hiểm của trí tuệ nhân tạo, một giáo sư Đại học Boston đang gióng lên hồi chuông cảnh báo về một nhược điểm khác có thể xảy ra — việc tạo ra các công cụ AI có thể gây tác động lớn đến môi trường.
Kate Saenko, phó giáo sư khoa học máy tính tại Đại học Boston, cho biết: “Là một nhà nghiên cứu về AI, tôi thường lo lắng về chi phí năng lượng khi xây dựng các mô hình AI. đã viết trong một bài viết hội thoại.”AI càng mạnh thì càng tiêu tốn nhiều năng lượng.”
Trong khi mức tiêu thụ năng lượng của các chuỗi khối như Bitcoin và Ethereum đã được nghiên cứu và tranh luận từ Twitter đến hội trường Quốc hội, tác động của sự phát triển nhanh chóng của AI trên hành tinh đã không nhận được sự chú ý tương tự.
Giáo sư Saenko đặt mục tiêu thay đổi điều đó, nhưng trong bài báo của mình, ông thừa nhận rằng có rất ít dữ liệu về lượng khí thải carbon của các truy vấn AI tổng quát riêng lẻ. Tuy nhiên, cô cho biết nghiên cứu cho thấy con số này cao gấp bốn đến năm lần so với các truy vấn công cụ tìm kiếm đơn giản.
Theo một báo cáo năm 2019, Saenko nói rằng một mô hình AI tổng quát có tên là Đại diện bộ mã hóa hai chiều từ Transformers (hoặc BERT) — với 110 triệu tham số — tiêu thụ nhiều bằng một người sử dụng đơn vị xử lý đồ họa (hoặc GPU). -chuyến bay xuyên lục địa.
Trong các mô hình AI, các tham số là các biến được học từ dữ liệu hướng dẫn các dự đoán của mô hình. Nhiều tham số hơn trong hỗn hợp thường có nghĩa là độ phức tạp của mô hình cao hơn và do đó yêu cầu nhiều dữ liệu và sức mạnh tính toán hơn. Các thông số được điều chỉnh trong quá trình đào tạo để giảm thiểu lỗi.
Để so sánh, mô hình GPT-3 của OpenAI (với 175 tỷ tham số) tiêu thụ năng lượng tương đương với việc lái 123 chiếc ô tô chở khách chạy bằng xăng trong một năm, tương đương khoảng 1.287 megawatt giờ điện, Saenko lưu ý. Nó cũng tạo ra 552 tấn carbon dioxide. Cô ấy nói thêm rằng con số đó đến từ việc chuẩn bị sẵn sàng ra mắt mô hình trước khi bất kỳ người tiêu dùng nào bắt đầu sử dụng nó.
Saenko cho biết: “Nếu chatbot trở nên phổ biến như các công cụ tìm kiếm, thì chi phí năng lượng cho việc triển khai AI có thể thực sự tăng lên”, đồng thời trích dẫn việc Microsoft đã bổ sung ChatGPT vào trình duyệt web Bing của mình vào đầu tháng này.
Việc ngày càng có nhiều chatbot AI, chẳng hạn như Perplexity AI và ChatGPT phổ biến của OpenAI, đang phát hành các ứng dụng dành cho thiết bị di động cũng không giúp ích được gì. Điều này làm cho chúng dễ sử dụng hơn và hiển thị chúng cho nhiều đối tượng hơn.
Saenko nêu bật một nghiên cứu của Google cho thấy rằng việc sử dụng các bộ xử lý và kiến trúc mô hình hiệu quả hơn cũng như các trung tâm dữ liệu xanh hơn có thể giảm đáng kể lượng khí thải carbon.
Saenko viết: “Mặc dù một mô hình AI lớn duy nhất sẽ không phá hủy môi trường, nhưng nếu một nghìn công ty phát triển các robot AI hơi khác nhau cho các mục đích khác nhau, mỗi loại được sử dụng bởi hàng triệu khách hàng, thì việc giảm sử dụng năng lượng có thể trở thành một vấn đề. “
Cuối cùng, Saenko kết luận rằng cần có nhiều nghiên cứu hơn để cải thiện hiệu quả của AI tổng quát — nhưng cô ấy rất lạc quan.
“Tin tốt là AI có thể chạy bằng năng lượng tái tạo,” cô viết. “Bằng cách đưa điện toán đến những nơi có nhiều năng lượng xanh hơn hoặc lên lịch điện toán vào các thời điểm trong ngày khi có nhiều năng lượng tái tạo hơn, lượng khí thải có thể giảm từ 30 đến 40 lần so với sử dụng lưới điện do nhiên liệu hóa thạch chi phối.”
Quan tâm đến việc tìm hiểu thêm về AI? Hãy xem khóa học Decrypt U mới nhất của chúng tôi, “Giới thiệu về Trí tuệ nhân tạo”. Nó bao gồm mọi thứ, từ lịch sử của trí tuệ nhân tạo đến máy học, ChatGPT và ChainGPT.tìm hiểu thêm đây.