MX3-2280-M-4-C

MemryX
89-MX3-2280-M-4-C
MX3-2280-M-4-C

Ürt.:

Açıklama:
Sistem Belleği Hızlandırıcıları The M.2 Module enables high performance, yet power-efficient AI inference for edgedevices and edge servers.

Yaşam Döngüsü:
Mouser'da Yeni

Stok Durumu

Stok:
0

Bu ürünü hâlâ tekrar siparişle satın alabilirsiniz.

Siparişte:
2
Beklenen 19.02.2026
Fabrika Teslim Süresi:
15
Hafta Gösterilenden daha büyük miktarlar için fabrikada tahmini üretim süresi.
Minimum: 1   Çoklu: 1
Birim Fiyat:
-,-- €
Toplam Fiyat:
-,-- €
Tahmini Gümrük Vergisi:
Bu Ürün ÜCRETSİZ Gönderilir

Fiyatlandırma (EUR)

Miktar Birim Fiyat
Toplam Fiyat
245,31 € 245,31 €
225,72 € 2.257,20 €
218,19 € 5.454,75 €

Ürün Niteliği Öznitelik Değeri Özellik Seçin
MemryX
Ürün Kategorisi: Sistem Belleği Hızlandırıcıları
M.2 AI Acceleration Modules
M.2 2280-M
0 C
+ 70 C
80 mm
22 mm
3.3 V
Marka: MemryX
Boyutlar: 80 mm x 22 mm
Neme Duyarlı: Yes
Ürün Tipi: System Memory Accelerators
Fabrika Paket Miktarı: 1
Alt kategori:: Memory & Data Storage
Birim Ağırlık: 720 g
Bulunan ürünler:
Benzer ürünleri göstermek için en az bir onay kutusu seçin
Bu kategorideki benzer ürünleri göstermek için yukarıda en az bir onay kutusu seçin.
Seçilen özellikler: 0

CAHTS:
8471809900
USHTS:
8471809000
JPHTS:
847180000
TARIC:
8471800000
BRHTS:
84718000
ECCN:
EAR99

M.2 AI Acceleration Module

MemryX M.2 AI Acceleration Module is a cutting-edge solution that brings advanced Artificial Intelligence (AI) processing to edge devices and systems. Powered by four MX-3™ "digital at-memory compute" AI ASICs, this module delivers unparalleled efficiency and performance by processing AI workloads directly within memory, minimizing data movement and latency. This innovative architecture enables real-time inference for complex deep learning models while maintaining low power consumption, making it ideal for applications in industrial automation, smart surveillance, healthcare, and automotive systems. The module's compact M.2 form factor ensures seamless integration into space-constrained devices, providing scalable AI acceleration for various edge computing needs.