사상 최대 규모의 프로세서로 1 조 2 천만 개의 트랜지스터 팩, 최고급 Intel 및 AMD CPU 및 GPU 사용

하드웨어 / 사상 최대 규모의 프로세서로 1 조 2 천만 개의 트랜지스터 팩, 최고급 Intel 및 AMD CPU 및 GPU 사용 3 분 읽기

CerebrasSystems 프로세서 소스-HPCGuru



한 회사는 Intel 또는 AMD가 생산 한 것보다 훨씬 더 큰 사상 최대의 프로세싱 칩을 만들었습니다. 실리콘 웨이퍼에 미친 1.2 조 개의 트랜지스터를 가진이 프로세서는 지금까지 만들어진 가장 큰 반도체 칩입니다. 프로세서 배후에있는 회사는 인공 지능 (AI)을 강화하기 위해 칩을 전용 할 계획입니다.

새로운 인공 지능 회사 인 Cerebras Systems가 만든 Cerebras Wafer Scale Engine은 지금까지 만들어진 가장 큰 반도체 칩입니다. 중앙 처리 장치 또는 CPU에는 1 조 2 천억 개의 트랜지스터가 있으며, 이는 모든 실리콘 칩의 가장 기본적이고 필수적인 온-오프 전자 스위치입니다. Advanced Micro Devices 프로세서에서 최근에 제조 한 프로세서에는 320 억 개의 트랜지스터가 있습니다. 말할 필요도없이, Cerebras Wafer Scale Engine의 트랜지스터 수는 최고급 AMD 및 Intel CPU 및 GPU를 훨씬 능가합니다.



Cerebras 웨이퍼 스케일 엔진은 역사상 가장 큰 단일 칩 프로세서입니다.

Cerebras WSE는 400,000 개의 AI 최적화, 캐시 없음, 오버 헤드 없음, 컴퓨팅 코어 및 18GB의 로컬 분산 초고속 SRAM 메모리를 하나의 유일한 메모리 수준으로 수용하는 거대한 46,225 제곱 밀리미터 크기의 실리콘 웨이퍼입니다. 계층. 이에 비해 가장 큰 NVIDIA GPU는 815 평방 밀리미터를 측정하고 211 억 개의 트랜지스터를 포함합니다. 간단한 수학으로 Cerebras WSE가 하이 엔드 NVIDIA GPU보다 56.7 배 더 큽니다.



Cerebras WSE의 메모리 대역폭은 초당 9 페타 바이트입니다. 즉, 세계에서 가장 큰 프로세서는 3,000 배 더 빠른 온칩 메모리와 10,000 배 더 많은 메모리 대역폭을 자랑합니다. 프로세서의 코어는 세분화 된 전체 하드웨어 온칩 메시 연결 통신 네트워크와 함께 연결됩니다. 단순화 된 아키텍처와 초고 대역폭과 결합 된 거대한 다이 크기 덕분에 프로세서는 초당 100 페타 비트의 총 대역폭을 제공 할 수 있습니다. 간단히 말해서 Cerebras WSE의 많은 코어, 더 많은 로컬 메모리, 낮은 지연 시간, 고 대역폭 패브릭은 인공 지능 작업을 크게 가속화하는 이상적인 프로세서입니다.

Intel과 AMD가 맞춤형으로 설계된 거대한 CPU와 GPU를 만드는 이유는 무엇입니까?

Intel, AMD 및 대부분의 다른 실리콘 칩 제조업체 완전히 다른 전통적인 접근 방식을 채택하십시오. 일반적으로 사용 가능한 강력한 GPU 및 CPU는 실제로 12 인치 실리콘 웨이퍼 위에 생성 된 칩 모음이며 칩 공장에서 일괄 처리됩니다. 반면 Cerebras WSE는 단일 웨이퍼에 상호 연결된 단일 칩입니다. 간단히 말해서, 가장 큰 프로세서의 모든 1.2 조 개의 트랜지스터가 하나의 거대한 실리콘 칩으로 함께 작동합니다.



인텔과 AMD와 같은 회사가 그렇게 엄청나게 큰 실리콘 웨이퍼에 투자하지 않는 데에는 다소 간단한 이유가 있습니다. 단일 실리콘 웨이퍼에는 몇 가지 불순물이있어 계단식 효과를 내고 결국 고장을 일으킬 수 있습니다. 칩 제조업체는 동일한 사항을 잘 알고 있으며 그에 따라 프로세서를 구축합니다. 따라서 안정적으로 작동하는 실리콘 칩 측면에서 실리콘 웨이퍼의 실제 수율은 매우 낮습니다. 즉, 실리콘 웨이퍼에 단 하나의 칩만 있으면 불순물과 고장의 가능성이 상당히 높습니다.

흥미롭게도 다른 회사는 실행 가능한 솔루션을 찾지 못했지만 Cerebras는 칩이 중복되도록 설계 한 것으로 알려졌습니다. 간단히 말해서, 하나의 불순물이 전체 칩을 무력화 시키지는 않는다고 Cerebras Systems를 공동 설립하고 CEO로 일하고있는 Andrew Feldman은 말합니다. “ 처음부터 AI 작업을 위해 설계된 Cerebras WSE에는 십자형 십자선 연결, 수율, 전력 공급, 그리고 칩 크기를 제한하는 수십 년 된 기술적 과제를 해결함으로써 최첨단 기술을 발전시키는 근본적인 혁신이 포함되어 있습니다. 포장. 모든 아키텍처 결정은 AI 작업의 성능을 최적화하기 위해 내려졌습니다. 그 결과 Cerebras WSE는 작업 부하에 따라 전력 소비량과 공간의 극히 일부에서 기존 솔루션의 수백 또는 수천 배의 성능을 제공합니다. '

AI 작업은 계속해서 더 큰 칩을 요구할 것입니다.

새로운 프로세서는 주로 더 큰 칩이 정보를 더 빨리 처리하고 더 짧은 시간에 답변을 생성하기 때문에 AI 작업을 처리하도록 맞춤 제작되었습니다. 대부분의 기술 회사는 오늘날 AI의 근본적인 한계는 모델 학습에 너무 오래 걸린다는 것입니다. 따라서 일부 기술 리더는 더 적은 데이터 세트에 의존하도록 AI 알고리즘을 최적화하려고합니다. 그러나 좋은 AI는 더 큰 데이터 세트로 분명히 향상됩니다. CPU 크기를 늘려 훈련 시간을 줄이는 것은 결과 AI의 품질을 손상시키지 않고 처리를 늘리고 훈련 시간을 줄이는 한 가지 방법입니다.

Cerebras WSE에 배치 된 프로세서 간 통신 패브릭도 유일무이합니다. 저 지연, 고 대역폭, 2D 메시는 WSE의 모든 400,000 개 코어를 초당 총 100 페타 비트 대역폭으로 연결합니다. 또한 프로세서의 코어는 SLAC (Sparse Linear Algebra Core)로, 신경망 컴퓨팅 기본 요소에 최적화되어 있습니다. 두 측면 모두 AI 작업에서 칩을 훨씬 앞서게합니다. 따라서 게이머가 PC 용으로 가장 크고 가장 강력한 CPU 또는 GPU를 구입할 수있을 가능성은 거의 없습니다.

태그 amd 인텔