News

Spezialisten für KI: Intel stellt Nervana-Prozessoren vor

Nervana-Chips: Intel mischt im KI-Market mit. (Foto: Shutterstock/ Alexander Tolstykh)

Intel hat seine Nervana-Prozessoren vorgestellt. Damit reagiert der Chip-Hersteller auf den wachsenden Bedarf an Spezial-Chips für Aufgaben rund um künstliche Intelligenz.

Mit den AI-Spezialisten Nervana NNP-T und Nervana NNP-I bietet Intel die erste Prozessor-Kombo des Hauses, die sich vollständig auf Aufgaben der künstlichen Intelligenz, im Besonderen jenen des maschinellen Lernens (Machine Learning), konzentriert. Zunächst bereits für Ende 2018 angekündigt, sollen die Prozessoren den Vorsprung von Google, Amazon und Nvidia aufholen, die bereits seit längerem eigene KI-Chips im Angebot haben. Die NNP-Prozessoren sind für den Einsatz in den skalierenden Rechenumgebungen eines Data-Centers bestimmt.

Nervana: Ein Chip fürs Training, einer für den Einsatz des Ergebnisses

Hier soll der Nervana NNP-T der Chip sein, der das Training eines KI-Modells mit Big Data übernimmt. So erklärt sich das T im Namen. Der NNP-I hingegen ist für das Inferencing (daher das I) zuständig, also das letztendlich Implementieren der Trainingsergebnisse in den KI-Workflow.

Nervana: Neue Chips fürs Machine Learning und dessen Umsetzung. (Bild: Intel)

Die SoC (System-on-a-Chip) werden im Zehn-Nanometer-Verfahren, respektive in 16 Nanometer (NNP-T)  gefertigt. Der Nervana NNP-I verfügt über Ice-Lake-Kerne und kann bis zu 256 Gigabyte an LPDDR4x-Speicher ansprechen. Der NNP-T bietet 24 Tensor-Verarbeitungs-Cluster sowie eine HBM2-Speicherarchitektur und kann bis zu 119 Tops (theoretische Operationen pro Sekunde) abwickeln.

Die beiden unter den Codenamen Spring Crest und Spring Hill entwickelten Chips sind keine Alternativen zueinander, sondern ergänzen sich hinsichtlich der Aufgaben, die sie jeweils erfüllen. In einer geschlossenen Anwendungsumgebung werden sie entsprechend komplementär zum Einsatz kommen.

Nervana lösen Xeon ab, treten in Konkurrenz zu Google und anderen

Bislang hatte Intel für KI-Aufgaben wie Machine Learning auf seine Xeon-CPU gesetzt. Der Xeon bietet hierfür immer noch genügend Leistung, ist aber weniger effektiv und effizient als die spezialisierten NNP-Chips.

Mit der Nervana-NNP-Reihe tritt Intel in Konkurrenz zu Googles Tensor-Prozessoren, Nvidias NVDLA (Nvidia Deep Learning Architecture) und Amazons AWS-Inferentia-Chips. Der Wettbewerb braucht Intel nicht zu sorgen, denn der Chip-Hersteller dominiert mit seinen Prozessoren schon rein quantitativ nach wie vor die Data-Center weltweit.

Zum Weiterlesen:

Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Schreib den ersten Kommentar!

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!

Hey du! Schön, dass du hier bist. 😊

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team bestehend aus 65 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Danke für deine Unterstützung.

Digitales High Five,
Stephan Dörner (Chefredakteur t3n.de) & das gesamte t3n-Team

Anleitung zur Deaktivierung