미네소타 대학 연구팀이 인공지능(AI) 처리에 필요한 전력 소모를 획기적으로 줄이는 혁신적인 기술을 개발했습니다. 이 기술은 AI 처리 에너지 소비를 최소 1,000배 개선할 수 있습니다. 이는 AI 컴퓨팅의 막대한 전력 요구량 문제를 해결할 수 있는 대안으로 주목받고 있습니다.
이 기술은 'CRAM(Computational Random-Access Memory)'이라는 방식을 사용합니다. CRAM은 메모리 셀 내부에 고밀도, 재구성 가능한 스핀트로닉 인메모리 컴퓨팅 기능을 통합합니다. 이를 통해 메모리와 처리 장치 간 데이터 이동이 필요 없어지므로, 상당한 에너지 소비를 줄일 수 있습니다. CRAM은 삼성전자의 PIM 기술 등 기존 인메모리 컴퓨팅 솔루션보다 더 효율적인 방식을 제공합니다.
실험 결과, CRAM은 16nm 공정 기반 근메모리 처리 시스템 대비 전력 효율이 2,500배, 속도가 1,700배 향상되었습니다. 이는 MNIST 필기 숫자 분류 작업에서 확인된 수치입니다. 이 기술은 향후 AI 에너지 소비가 매년 26~36% 증가할 것으로 예상되는 상황에서 혁신적인 솔루션이 될 것으로 기대됩니다.
연구팀은 이 기술에 대해 여러 특허를 출원했으며, 반도체 업계 주요 기업과의 제휴를 통해 대규모 시연 및 양산을 추진할 계획입니다. 이를 통해 AI 기능을 높이면서도 에너지 효율을 크게 개선할 수 있을 것으로 보입니다.
* 이 글은
tomshardware.com의 기사를 요약한 것입니다. 전체 기사의 내용은
이곳에서 확인하실 수 있습니다.