AMD는 ROCm 소프트웨어와 문서화에서 상당한 개선을 이루었으며, 특히 Instinct MI300X 가속기에 주목할 만한 발전을 보였습니다. 최근 AMD Accelerator Cloud 테스트에서는 향상된 문서화와 ROCm 가속 애플리케이션 배포를 위한 다양한 컨테이너 옵션이 강조되었습니다. 이러한 컨테이너는 이제 2주마다 업데이트되며, PyTorch와 Megatron-LM과 같은 다양한 프레임워크를 지원하여 훈련 및 추론 기능을 강조합니다.
AMD Accelerator Cloud는 사용자가 초기 투자 없이 AMD 하드웨어에서 자신의 코드를 실험할 수 있도록 하여 최신 제품을 벤치마킹하는 데 용이하게 합니다. 구글의 Gemma 3와 같은 새로운 모델에 대한 적시 지원에 대한 AMD의 헌신은 소프트웨어 생태계에 대한 그들의 의지를 보여줍니다. 또한, AMD는 Open Platform for Enterprise AI (OPEA) 프로젝트에 참여하여 AI 분야에서의 입지를 더욱 확고히 하고 있습니다.
이러한 발전을 활용하고자 하는 개발자들을 위해 AMD는 ROCm AI 개발자 허브 및 Docker 리포지토리 등 다양한 온라인 허브를 통해 개선된 문서와 리소스에 대한 접근을 제공합니다. 전반적으로 문서화 및 컨테이너화에서의 이러한 발전은 가속 컴퓨팅 환경에서 사용자 경험과 접근성을 향상시키려는 AMD의 초점을 반영합니다.
* 이 글은
phoronix.com의 기사를 요약한 것입니다. 전체 기사의 내용은
이곳에서 확인하실 수 있습니다.