Anlässlich der dritten Auflage von Intel-Innovationstellte das Unternehmen eine Reihe von Technologien vor Bringen Sie KI überall hin. Ziel ist es, den Zugriff über alle Workloads hinweg zu verbessern, vom Client über den Edge bis hin zum Netzwerk und der Cloud.
Intel: KI kann und sollte überall eingesetzt werden
In der Keynote zur Eröffnung der Veranstaltung an Entwickler: Gelsinger zeigte, wie Intel Fähigkeiten der künstlichen Intelligenz in seine Hardwareprodukte integriert. Sie durch offene Softwarelösungen mit mehreren Architekturen zugänglich machen. Er betonte auch, wie künstliche Intelligenz zur Förderung beiträgt „Silikonomie“, „Eine Phase der wirtschaftlichen Entwicklung, die durch die Magie von Silizium und Software ermöglicht wurde“. Heute treibt Silizium eine 574-Milliarden-Dollar-Industrie an, die wiederum eine globale Technologiewirtschaft im Wert von fast 8 Billionen Dollar antreibt.
Intel ist KI: neue Fortschritte in der Siliziumtechnologie, Verpackung und Multi-Chiplet-Lösungen
Gelsinger zeigte außerdem einen Intel 20A Wafer mit den ersten Testchips für il Prozessor Arrow Lake von Intel. Geplant für den Client-Computing-Markt im Jahr 2024. Intel 20A wird der erste Prozessknoten sein, der PowerVia enthält, Intels Technologie zur Stromversorgung von der Rückseite des Chips. Das neue Gate-Allround-Transistordesign heißt RibbonFET. Intel 18A, das auch PowerVia und RibbonFET nutzt, soll planmäßig in der zweiten Hälfte des Jahres 2024 in Produktion gehen.
Intel zeigte auch ein Test-Chippaket, das mit hergestellt wurde Universeller Chiplet Interconnect Express (UCIe). Die nächste Welle des Mooreschen Gesetzes werde in Multi-Chiplet-Paketen kommen, sagte Gelsinger. Dies wird schneller geschehen, wenn offene Standards die Herausforderungen bei der Integration geistigen Eigentums verringern können.
Der im letzten Jahr geschaffene UCIe-Standard ermöglicht die Zusammenarbeit von Chiplets verschiedener Anbieter und ermöglicht so neue Designs zur Erweiterung verschiedener KI-Arbeitslasten. Diese offene Spezifikation wird von mehr als 120 Unternehmen unterstützt.
Der Testchip vereint einen auf Intel 3 hergestellten Intel UCIe IP-Chiplet und einen auf dem Prozessknoten hergestellten Synopsys UCIe IP-Chiplet TSMC N3E. Die Chiplets werden mithilfe der fortschrittlichen EMIB-Verpackungstechnologie (Embedded Multi-Die Interconnect Bridge) verbunden. Die Demonstration unterstreicht das Engagement von TSMC, Synopsys und Intel Foundry Services, mit UCIe ein auf offenen Standards basierendes Chiplet-Ökosystem zu unterstützen.
Steigern Sie die Leistung und bringen Sie KI überall hin
Gelsinger hob die Bandbreite der KI-Technologien hervor, die Entwicklern heute auf Intel-Plattformen zur Verfügung stehen, und wie diese Bandbreite im nächsten Jahr dramatisch zunehmen wird. Jüngste Erfolge in der Inferenzleistung KI MLPerf Intels Engagement für die Bewältigung aller Phasen des KI-Kontinuums, einschließlich generativer KI und großer Sprachmodelle, weiter stärken.
Die Ergebnisse zeigen auch, dass der Intel Gaudi2-Beschleuniger die einzige realisierbare Alternative auf dem Markt für den Bedarf an Computern mit künstlicher Intelligenz darstellt. Gelsinger kündigte an, dass ein großer KI-Supercomputer vollständig auf Prozessoren basieren werde Intel Xeon und 4.000 Intel-Hardwarebeschleuniger Gaudi2 AI, mit Stability AI als Hauptbenutzer.
Zhou Jingren, Chief Technology Officer von Alibaba Cloud, erklärte, wie Alibaba Intel Intels Technologie, sagte er, führe zu „spürbaren Verbesserungen der Reaktionszeiten mit einer durchschnittlichen Beschleunigung um das Dreifache“.
Intel gab auch eine Vorschau auf die nächste Generation der Intel Xeon-Prozessoren und enthüllte, dass die Intel
Entwickler werden zu Protagonisten der Siliconomy
Um Entwicklern dabei zu helfen, diese Zukunft zu erschließen, kündigte Intel an:
- Allgemeine Verfügbarkeit der Intel Developer Cloud: Die Intel Developer Cloud unterstützt Entwickler bei der Beschleunigung der KI mithilfe der neuesten Hardware- und Softwareinnovationen von Intel, einschließlich Intel Gaudi2-Prozessoren für Deep Learning, und bietet Zugriff auf die neuesten Intel-Hardwareplattformen wie Intel Xeon Scalable-Prozessoren der fünften Generation und Intel Data Center GPU Max 1100 und 1550-Serie. Mit der Intel Developer Cloud können Entwickler KI- und HPC-Anwendungen erstellen, testen und optimieren.
- Die Einführung des OpenVINO-Toolkits im Jahr 2023: OpenVINO ist die KI-Inferenz- und Bereitstellungslaufzeit der Wahl für Entwickler auf Client- und Edge-Plattformen. Die Veröffentlichung umfasst vorab trainierte Modelle, die für die Integration zwischen Betriebssystemen und verschiedenen Cloud-Lösungen optimiert sind, darunter viele generative KI-Modelle, wie beispielsweise das Llama 2-Modell von Meta. Auf der Intel Innovation demonstrierten Unternehmen wie ai.io und Fit:match, wie sie OpenVINO nutzen, um ihre Anwendungen zu beschleunigen: ai.io zur Analyse der Leistung jedes Sportlers; Fit:match revolutioniert den Einzelhandels- und Wellnessbereich, indem es Verbrauchern hilft, die am besten geeigneten Kleidungsstücke zu finden.
- Projekt Strata und die Entwicklung einer nativen Edge-Plattform: Die Plattform startet im Jahr 2024 mit modularen Bausteinen, Premium-Diensten und Zusatzangeboten. Hierbei handelt es sich um einen horizontalen Ansatz zur Skalierung der für Intelligent Edge und Hybrid-KI erforderlichen Infrastruktur, der ein Ökosystem aus vertikalen Anwendungen von Intel und Drittanbietern zusammenführen wird. Die Lösung ermöglicht es Entwicklern, verteilte Edge-Infrastrukturen und -Anwendungen zu erstellen, bereitzustellen, auszuführen, zu verwalten, zu verbinden und zu sichern.