SK hynix는 라스베이거스에서 열리는 CES에서 인공지능(AI) 애플리케이션을 겨냥한 다양한 첨단 메모리 솔루션을 공개할 예정입니다. 이 회사는 이전 12층 버전을 기반으로 한 최신 16층 고대역폭 메모리(High Bandwidth Memory, HBM) 기술인 HBM3E를 …
2025-01-09 15:12 | 댓글: 0개마이크론이 공식적으로 12-Hi HBM3E 메모리 스택의 출시를 발표했습니다. 이 새로운 메모리 스택은 36GB의 용량을 제공하며, 이전 8-Hi 버전의 24GB에 비해 50% 증가한 용량입니다. 향상된 용량은 Nvidia의 H200 및 B100/B200 GPU를 …
2024-09-09 18:19 | 댓글: 0개마이크론이 12-하이 디자인을 특징으로 하는 생산 준비 완료된 HBM3E 메모리 솔루션을 소개했습니다. 이 새로운 메모리 기술은 최대 36GB의 용량을 지원하며, 9.2Gbps의 인상적인 속도와 1.2TB/s 이상의 대역폭을 제공하여 데이터 집약적인 애플리케이션, …
2024-09-06 06:59 | 댓글: 0개AMD는 EPYC 9005 투린 CPU 이벤트에서 새로운 AI GPU인 AMD Instinct MI325X를 출시하며 이전 MI300X 모델에 비해 업그레이드를 이루었습니다. MI325X는 HBM3E 메모리로의 전환을 포함한 중요한 개선 사항을 특징으로 하며, 256GB의 …
2024-10-12 15:11 | 댓글: 0개엔비디아의 Blackwell GPU는 인공지능(AI) 및 고성능 컴퓨팅(HPC)을 위해 설계되었으며, 현재 상당한 수요를 보이고 있어 향후 12개월간 완판되었습니다. 이러한 상황은 이전에 완판된 Hopper GPU와 유사하며, 포장 재설계 문제로 인한 최근 지연에도 …
2024-10-11 15:54 | 댓글: 0개AMD는 2025년 하반기에 출하될 예정인 Instinct MI355X CDNA4 AI 가속기의 사양을 발표했습니다. MI355X는 TSMC의 최신 N3 공정 노드를 기반으로 구축된 새로운 CDNA4 아키텍처를 활용하며, 이전 N5 노드에서의 중요한 변화를 나타냅니다. …
2024-10-10 18:21 | 댓글: 0개AMD는 256GB HBM3e 메모리를 특징으로 하는 인스팅트 MI325X AI GPU 가속기를 공개했습니다. MI325X는 이전 모델인 MI300X에 비해 상당한 성능 향상을 이루었으며, 5nm+6nm 공정 노드를 활용하고 1,530억 개의 트랜지스터를 탑재하여 최대 …
2024-10-10 17:00 | 댓글: 0개AMD는 새로운 HPC-AI 가속기 인스팅트 MI325X를 소개했으며, 이는 2023년 4분기에 생산이 시작되고 2025년 1분기에 더 널리 공급될 예정입니다. 함께 CDNA-4 기반의 후속 모델인 인스팅트 MI355X도 공개되어, AMD가 엔비디아의 블랙웰 아키텍처와 …
2024-10-10 16:44 | 댓글: 0개엔비디아의 CEO 젠슨 황은 CNBC와의 인터뷰에서 AI 애플리케이션을 위한 새로운 Blackwell GPU가 대량 생산에 들어갔으며, 수요가 '미친 수준'이라고 밝혔습니다. 삼성의 HBM3e와 관련된 문제는 해결된 것으로 전해졌습니다. 황은 모든 고객이 가능한 …
2024-10-03 15:14 | 댓글: 0개SK hynix가 새로운 36GB HBM3E 12-High 메모리 모듈의 대량 생산을 시작했다고 발표했습니다. 이는 Micron의 유사 제품과 함께 시장에 출시됩니다. 이러한 모듈의 생산은 상당한 엔지니어링 도전 과제를 제시하는데, SK hynix는 이전의 …
2024-09-28 15:00 | 댓글: 0개SK hynix가 36GB 용량을 갖춘 새로운 12층 HBM3E 메모리의 양산을 시작했다고 발표했습니다. 이 새로운 메모리 설계는 표준 8층 메모리보다 40% 얇아 추가 두께 없이 용량을 증가시킬 수 있습니다. HBM3E 메모리의 …
2024-09-26 14:17 | 댓글: 0개SK hynix는 36GB 용량의 12-Hi HBM3E 메모리 스택의 대량 생산을 시작했습니다. 이 새로운 모듈은 AMD의 Instinct MI325X와 Nvidia의 Blackwell Ultra를 포함한 차세대 인공지능(AI) 및 고성능 컴퓨팅(HPC) 프로세서를 지원하도록 설계되었습니다. 12-Hi …
2024-09-26 13:08 | 댓글: 0개SK 하이닉스가 세계 최초의 12층 HBM3E 메모리의 양산을 발표했습니다. 이 메모리는 모듈당 36GB의 용량을 제공하며, 9.6 Gbps의 속도를 달성합니다. 이 새로운 제품은 고대역폭 메모리 기술의 중요한 발전을 나타내며, 특히 AI …
2024-09-26 06:45 | 댓글: 0개램버스가 HBM4 컨트롤러에 대한 첫 번째 지적 재산(IP)을 공개하여 고객들이 자신의 칩 설계를 시작할 수 있게 되었습니다. 초기 목표는 6.4 Gbps의 대역폭이며, 시간이 지남에 따라 10 Gbps를 초과하는 확장을 계획하고 …
2024-09-10 09:31 | 댓글: 0개마이크론이 공식적으로 12-Hi HBM3E 메모리 스택의 출시를 발표했습니다. 이 새로운 메모리 스택은 36GB의 용량을 제공하며, 이전 8-Hi 버전의 24GB에 비해 50% 증가한 용량입니다. 향상된 용량은 Nvidia의 H200 및 B100/B200 GPU를 …
2024-09-09 18:19 | 댓글: 0개마이크론이 12-하이 디자인을 특징으로 하는 생산 준비 완료된 HBM3E 메모리 솔루션을 소개했습니다. 이 새로운 메모리 기술은 최대 36GB의 용량을 지원하며, 9.2Gbps의 인상적인 속도와 1.2TB/s 이상의 대역폭을 제공하여 데이터 집약적인 애플리케이션, …
2024-09-06 06:59 | 댓글: 0개마이크론이 12층 스택으로 구성된 새로운 HBM3E 메모리의 출하를 발표했습니다. 이 메모리는 패키지당 용량이 24GB에서 36GB로 크게 증가하는 성능 향상을 제공합니다. 이러한 발전은 AI 산업에 특히 중요한데, 이는 더 높은 성능과 …
2024-09-05 21:14 | 댓글: 0개SK hynix가 9월 말까지 12층 HBM3E 메모리의 양산을 시작할 예정이며, 차세대 AI 시장을 겨냥하고 있습니다. 이 새로운 메모리 표준은 AI 가속기에서 중요한 구성 요소인 HBM이 AI 컴퓨팅 능력을 크게 향상시킬 …
2024-09-05 11:40 | 댓글: 0개엔비디아의 AI 및 HPC 애플리케이션용으로 설계된 블랙웰 B200 GPU의 예상되는 출시 지연이 AI 서버 시장에 큰 영향을 미치지 않을 것으로 수퍼마이크로는 전망합니다. 해당 기업은 이러한 지연을 새로운 기술을 도입할 때 …
2024-08-08 18:09 | 댓글: 0개NVIDIA는 기업 고객 및 AI 스타트업을 대상으로 한 Blackwell AI 가속기의 축소 버전인 B200A 출시를 준비하고 있습니다. 이 새로운 모델은 Blackwell 아키텍처의 일부로, 2024년 4분기 시장 출시가 예정되어 있다고 합니다. …
2024-08-08 13:30 | 댓글: 0개삼성전자의 8 계층 HBM3E 칩이 NVIDIA의 품질 테스트를 성공적으로 통과하면서 NVIDIA의 AI 가속기 및 GPU에 탑재될 수 있게 되었습니다. 이는 이전에 제기되었던 칩의 발열 및 전력 소비 문제를 삼성이 설계 …
2024-08-07 15:30 | 댓글: 0개