Các nhà nghiên cứu kỹ thuật tại Đại học Minnesota Twin Cities vừa phát triển và trình diễn một thiết kế bộ nhớ máy tính mới có thể giảm đáng kể lượng năng lượng mà các hệ thống trí tuệ nhân tạo (AI) tiêu thụ. Nghiên cứu của họ gần đây đã được công bố trên tạp chí Nature,Độtphácôngnghệbộnhớgiảmtớilầnmứctiêuthụnănglượngcủlịch thi đấu giải vô địch đức Unconventional Computing.
Hầu hết các hệ thống máy tính hiện đại đều được xây dựng trên cái được gọi là kiến trúc Von Neumann, trong đó các hệ thống logic và bộ nhớ con được tách biệt. Khi hoạt động, dữ liệu chuyển qua lại giữa các mô-đun bộ nhớ và bộ xử lý. Đây cũng là nền tảng vận hành cơ bản của máy tính ngày nay.
Tuy nhiên, khi tốc độ xử lý nhanh hơn tốc độ vận chuyển dữ liệu ra vào (I/O) thì quá trình truyền dữ liệu trở thành nút thắt cổ chai, ảnh hưởng cả tốc độ xử lý và mức tiêu thụ điện năng. Theo nghiên cứu được đăng tải, việc xáo trộn dữ liệu qua lại tiêu tốn tới 200 lần lượng điện năng mà chính các phép tính thực hiện. Để giải quyết vấn đề này, các nhà khoa học tìm cách đưa bộ phận logic và bộ nhớ lại gần nhau hơn về mặt vật lý.
Trong khi đó, giải pháp của nhóm nghiên cứu Twin Cities là một thiết kế mới, hoàn toàn kỹ thuật số, được đặt ngay trong bộ nhớ (in-memory), có tên bộ nhớ điện toán truy cập ngẫu nhiên (CRAM). Cụ thể, quy trình tính toán “sẽ được tiến hành tự nhiên ngay trong các ô bộ nhớ mà dữ liệu không cần phải đi ra ngoài”.
Để đạt được mục tiêu này, nhóm đã tích hợp trực tiếp lên ô bộ nhớ một linh kiện điện tử mới, dựa trên điện tử học spin (spintronics), từ đó có thể giảm tới 1.000 lần mức tiêu thụ năng lượng của AI.
Chưa dừng lại, con số 1.000 lần mới chỉ là mức tối thiểu. Nhóm nghiên cứu đã thử nghiệm CRAM trên tác vụ phân loại chữ số viết tay MNIST và kết quả cho thấy nó "tiết kiệm năng lượng và thời gian lần lượt là 2.500 lần và 1.700 lần so với hệ thống xử lý gần bộ nhớ tại node công nghệ 16 nm".
Ngành công nghiệp AI mới nổi đang phải đối mặt với các vấn đề đáng kể về tài nguyên. Các GPU ngày càng nhanh hơn, mạnh hơn và có khả năng hơn hỗ trợ phần mềm AI đang ngốn rất nhiều năng lượng. Ví dụ, Blackwell B200 hàng đầu mới nhất của NVIDIA tiêu thụ tới 1.200W và tạo ra rất nhiều nhiệt thải đến mức cần phải làm mát bằng chất lỏng, một hoạt động tốn nhiều tài nguyên khác.
Các gã khổng lồ công nghệ như Google, Amazon và Microsoft đang cố gắng xây dựng cơ sở hạ tầng vật lý cần thiết để thúc đẩy cuộc cách mạng AI sắp tới, đồng nghĩa các trung tâm dữ liệu có quy mô hàng gigawatt, thậm chí một số có nhà máy điện hạt nhân riêng. Do đó, việc tạo ra các tài nguyên tính toán và bộ nhớ tiết kiệm năng lượng hơn sẽ ngày càng trở nên quan trọng đối với khả năng tồn tại lâu dài của công nghệ này.
(Theo Vox, Yahoo Tech)
Mô hình AI mới cho phép tấn công máy tính từ xa thông qua bức xạ điện từCác nhà nghiên cứu Uruguay vừa tìm ra cách thức có thể sử dụng trí tuệ nhân tạo (AI) để xem trộm màn hình nạn nhân, thông qua các bức xạ điện từ rò rỉ từ cáp máy tính và màn hình. 顶: 8674踩: 8453
Đột phá công nghệ bộ nhớ giảm tới 1.000 lần mức tiêu thụ năng lượng của AI
人参与 | 时间:2025-02-02 20:46:20
相关文章
- Nhận định, soi kèo Ajax vs Galatasaray, 3h00 ngày 31/1: San bằng khoảng cách
- Nhận định Viettel vs Becamex Bình Dương, 19h15 ngày 19/10
- Thương ngày nắng về tập 29 phần 2: Đức thông báo mình sắp chết
- Nhận định, soi kèo Altyn Asyr vs Al Taawoun, 21h00 ngày 6/11: Tin vào cửa trên
- Soi kèo góc Ipswich vs Southampton, 22h00 ngày 1/2
- Từng ly hôn, tôi rất đồng cảm với nhân vật Khánh 'Thương ngày nắng về'
- Kỳ tài thách đấu tập 9: Mạc Văn Khoa bị đồng nghiệp tụt quần 3 lần
- Thách thức danh hài bị tố làm sẵn kịch bản cho thí sinh
- Nhận định, soi kèo Umm Salal vs Al Duhail, 20h30 ngày 31/1: Cuốn bay đối thủ
- Nhận định, soi kèo Blackburn Rovers vs Stoke City, 2h45 ngày 7/11:
评论专区