In einem wegweisenden Forschungsbericht, der heute veröffentlicht wurde, haben die Halbleiteringenieure von Nvidia gezeigt, wie generative künstliche Intelligenz (KI) den komplexen Prozess des Halbleiterdesigns optimieren kann. Die Studie verdeutlicht, wie spezialisierte Branchen große Sprachmodelle (LLMs), die auf proprietären Daten trainiert sind, nutzen können, um KI-gestützte Assistenten zu entwickeln, die die Produktivität in der Halbleiterfertigung steigern.
Die Forschung nutzte Nvidia NeMo, um das Potenzial maßgeschneiderter KI-Modelle aufzuzeigen, die einen Wettbewerbsvorteil im Halbleitersektor bieten. Das Design von Halbleitern ist eine komplexe Aufgabe, die eine präzise Konfiguration von Chips mit Milliarden von Transistoren auf 3D-Schaltplänen erfordert, die denLayouts von Städten ähneln und dünner als ein menschliches Haar sind. Dieser Prozess erfordert umfangreiche Zusammenarbeit zwischen verschiedenen Ingenieurteams, die sich jeweils auf unterschiedliche Designaspekte konzentrieren und verschiedene Softwaretools sowie Programmiersprachen verwenden.
Die Chipdesigner von Nvidia entwickelten eine Methode, mit der LLMs bei der Erstellung von Halbleiterchips unterstützen können. Der Hauptautor Mark Ren, Forschungsleiter bei Nvidia, erklärte: „Ich glaube, dass große Sprachmodelle mit der Zeit Prozesse in allen Bereichen verbessern werden.“ Der Bericht wurde von Nvidias Chief Scientist Bill Dally während einer Eröffnungsrede auf der International Conference on Computer-Aided Design in San Francisco vorgestellt. Dally bemerkte: „Dieser Ansatz stellt einen bedeutenden ersten Schritt dar, um LLMs für die komplexe Arbeit des Halbleiterdesigns anzuwenden und zu zeigen, wie spezialisierte Bereiche ihre internen Daten für das effektive Training generativer KI-Modelle nutzen können.“
Das Nvidia-Team entwickelte ein maßgeschneidertes LLM namens ChipNeMo, das auf den internen Daten des Unternehmens trainiert wurde, um Software zu generieren und zu optimieren, während es die Designer unterstützt. Ihr langfristiges Ziel ist es, generative KI in allen Phasen des Chipdesigns umzusetzen und die Produktivität erheblich zu steigern. Zu den ersten Anwendungen gehören ein Chatbot, ein Code-Generator und ein Analysetool.
Das Analysetool erhielt positives Feedback, da es die mühsame Aufgabe automatisiert, aktualisierte Fehlerbeschreibungen zu pflegen. Darüber hinaus hilft ein Prototyp-Chatbot Ingenieuren, technische Dokumente schnell zu finden, und ein Code-Generator erstellt spezialisierte Software-Snippets für das Chipdesign.
Die Forschung betont das Engagement des Teams, Design Daten zu sammeln und ein maßgeschneidertes generatives KI-Modell für verschiedene Branchen zu entwickeln. Durch den Ausgangspunkt mit einem Basis-Modell und die Nutzung von Nvidia NeMo – einem Rahmenwerk zur Erstellung, Anpassung und Bereitstellung generativer KI-Modelle – verfeinerten sie das finale ChipNeMo-Modell, das über 43 Milliarden Parameter verfügt und auf mehr als einer Billion Tokens trainiert wurde. Dieses Modell zeigte bemerkenswerte Fähigkeiten zur Mustererkennung.
Die Studie illustriert, wie ein technisch versiertes Team ein vortrainiertes Modell mit eigenen Daten verbessern kann und betont die Notwendigkeit, LLMs anzupassen, da kleinere Modelle größere, allgemeine Versionen übertreffen können. Effektive Datensammlung und -bereinigung sind während des Trainingsprozesses von entscheidender Bedeutung, und Benutzer werden ermutigt, über die neuesten Tools informiert zu bleiben, die ihre Arbeitsabläufe optimieren können.
Während die Halbleiterindustrie beginnt, die Möglichkeiten der generativen KI zu erkunden, bietet diese Forschung entscheidende Einblicke. Unternehmen, die an der Entwicklung eigener maßgeschneiderter LLMs interessiert sind, können auf das NeMo-Framework zurückgreifen, das auf GitHub und im Nvidia NGC-Katalog verfügbar ist. Der Forschungsbericht umfasst Beiträge einer vielfältigen Gruppe von Experten, darunter Mingjie Liu, Teo Ene, Robert Kirby, Chris Cheng, Nathaniel Pinckney und viele andere.