Cerebras a au moins trois ans d’avance sur la concurrence avec son géant de IA puce, affirme haut investisseur

0
178

Comment l’IA va transformer la prochaine vague de l’informatique, des logiciels et du matériel
L’apprentissage de la Machine, en particulier l’apprentissage en profondeur, est de forcer à une ré-évaluation de la façon dont les croustilles et les systèmes sont conçus qui va changer la direction du secteur pour les décennies à venir.

Il y a une semaine, la Silicon Valley startup Cerebras Systèmes a annoncé le plus important de la puce, le monde a jamais vu, le “wafer-échelle de moteur”, ou “WSE.” La puce est dédié à la résolution d’apprentissage de la machine de problèmes en intelligence artificielle et pourrait conduire à des changements spectaculaires dans la façon dont l’apprentissage en profondeur des réseaux sont mis au point.

La concurrence est certain de suivre, même si ce sera difficile pour les autres d’égal à ce que les Cerebras a accompli.

C’est la vue d’un très chevronnés de la société de capital de risque qui ont contribué de près de 200 millions de dollars en capital de démarrage Cerebras a reçu.

“Quelqu’un va mordre la balle et venir en concurrence avec une autre technologie,” dit Pierre Lamond, qui est un partenaire général avec Eclipse entreprises de Palo Alto, en Californie, un court voyage de Cerebras siège social à Los Altos.

“Il y aura de la concurrence d’au moins deux ans à trois ans à venir avec un produit similaire à la nôtre”, dit Lamond, dans une conversation avec ZDNet par téléphone.

Lamond a vu l’ensemble de balayage de la puce de l’industrie, venus de France comme un jeune homme au début des années 1960 pour travailler chez Fairchild Semiconductor, le précurseur de Intel, qui a débuté le moderne des semi-conducteurs. Lamond a également été un partenaire de 27 ans au Sequoia Capital, la société qui a commencé l’industrie du capital de risque dans la vallée.

pierre-lamond-eclipse-ventures-2019.jpg

Pierre Lamond a vu l’ensemble de l’histoire de jetons de première main. Avec l’effondrement de la Loi de Moore, “Il est devenu clair que, si vous avez pris un risque de faire une très très grande pièce unique, et trouver un moyen de le faire fonctionner comme un système, il n’y aura pas de progrès.”

Chris Schmauch

Cerebras du produit n’est pas seulement impressionnant, dit-il, c’est la direction de l’industrie doivent aller pour éviter la stagnation de l’actuelle puce de développement.

“La Loi de Moore n’est pas mauvais, mais c’est de ralentir”, observe Lamond, se référant à des défis qui ont limité les progrès des puces de plus en plus fine des caractéristiques. “La grande question pour une longue période de temps, et c’est là que Cerebras a cassé la terre, est, OK, sommes-nous limités à un deux-par-trois, ou trois par cinq centimètres de puce, ou faut-il aller pour quelque chose de beaucoup plus grand?

“Il est devenu clair que, si vous avez pris un risque de faire une très, très grande pièce unique, et trouver un moyen de le faire fonctionner comme un système, il n’y aura pas de progrès.”

Aussi: Cerebras PDG parle des grandes implications pour l’apprentissage de la machine en compagnie de grands puce

Donc, faire des gaufrettes à l’échelle des pièces n’est pas seulement un grand pas pour la puce de l’industrie, mais il est aussi “peut-être la dernière étape dans l’évolution des semi-conducteurs processus de la technologie, il muses.

Nvidia, le fabricant de puces graphiques qui Cerebras constamment compare lui-même, est “une très bonne compagnie,” dit Lamond, et est en train “de très bons appareils.”

“Mais ils sont limités par la taille, ils sont à travailler.”

Cerebras, fondé trois ans et demi, a résolu de nombreux problèmes techniques en ce moment.

Lamond a vu de première main comment avant les efforts visant à créer un énorme puce a échoué. “Je peux vous dire que faire un plein plaquette n’est pas facile,” dit Lamond.

Il se souvient de parler avec Gene Amdahl, le créateur de IBM “360” mainframe, qui ont essayé et échoué dans les années 1980 pour créer une plaquette à l’échelle de la partie avec une startup nommée Trilogie. “Je lui ai dit avec les rendements à l’époque, il n’était pas possible pour que cela fonctionne”, se souvient Lamond. Plusieurs choses ont changé dans l’industrie au cours des décennies qui ont fait Cerebras approche plus réaliste.

cs-wafer-comparison-gpu-black.jpg

Cerebras du “Wafer-Échelle de Moteur” prend presque toute l’étendue de 12 pouces, plaquette de silicium, le rendant 57 fois la taille de Nvidia la plus grande unité de traitement graphique.

Cerebras Systèmes.

Démarrer avec le problème de savoir comment on crée un système cohérent de fonctionnement à travers une plaquette de 12 pouces de diamètre, qui est généralement destiné à être découpé en plusieurs parties pour les puces individuelles. “La façon dont la tranche est organisé, il y a 84 tuiles ou des briques, comme vous pouvez l’appeler, et si l’un d’eux est mauvais, vous devez avoir un logiciel pour isoler ce afin de ne pas affecter les performances de l’ensemble de la galette,” explique Lamond.

Le rendement, le montant de la bonne surface, qui Cerebras partenaire, Taiwan Semiconductor Manufacturing, est d’obtenir dans la production de la WSE, est “incroyable”, dit Lamond. Seulement environ 1% à 2% de la tranche de la zone est inutilisable dans tous les gaufrettes à exécuter, dit-il. “C’est incroyable, j’ai dit à TSMC je suis extrêmement impressionné par ce qu’ils ont réussi à faire avec le rendement.”

Néanmoins, de très bons rendements ne sont pas assez.

“La normale idée que vous avez, que si nous avons une pause, nous permettra de l’isoler à l’aide d’un laser pour découper la connexion avec les autres briques — vous ne pouviez pas le faire parce que cela affecte beaucoup plus que la seule brique.” C’était très dur, très, très difficile de trouver une certaine manière,” dit Lamond.

Un problème dans le passé, était qu’il n’y avait pas assez de fils de métal pour interconnecter les différentes sections de la galette, explique Lamond.

“Aujourd’hui, il est très facile d’avoir plusieurs couches de métal, observe-t-il. “Il y a au moins une douzaine de couches de métal dans un Cerebras plaquette, tous utilisés pour l’interconnexion.” De retour lors de la Trilogie a été de travailler sur le problème, “vous ne pourriez pas le faire.”

Il y a d’autres innovations dans le matériel de cours et au-dessus de la fabrication de base percée, notes Lamond. Cerebras développé une façon de détecter, dans le matériel, dont la valeur est zéro éléments dans un réseau de neurones pour éviter le calcul. “C’était une très astucieux de développement pour découvrir les zéros dans le matériel, de sorte que vous n’utilisez pas de logiciel pour le faire,” dit-il. “Il enregistre les cycles. C’était un très habile de développement au-delà de la silicon développement.”

Aussi: l’IA est en train de changer la nature de la calculer

Le refroidissement de la puce et en le reliant au monde extérieur sont des défis supplémentaires avec de telles une grande partie. C’est pourquoi Cerebras est un des systèmes de l’entreprise, pas une puce de société, notes Lamond. Cerebras est la construction de la WSE dans un système informatique pour l’apprentissage de la machine, plutôt que de vendre des puces Nvidia et Intel ne comme “marchand” fabricants de semi-conducteurs. “Que la puce ne sera jamais à vendre,” dit Lamond de la WSE.

Envisager la chaleur défis d’une puce qui fonctionne à 15 kilowatts. “Il consomme une énorme quantité d’électricité, et que vous avez à faire refroidir d’une manière qui est très, très fiable,” dit Lamond.”Vous ne voulez pas que la température aller jusqu’à 125 degrés celsius, disons, de le garder à moins de 75 [degrés celsius]. Et ce n’est pas facile en soi, parce que vous avez une grande surface que vous devez garder à une température constante pendant toute l’opération du système.” Cerebras a développé un réseau complexe de tuyaux pour transporter de l’eau pour irriguer efficacement le WSE.

L’ensemble de cet effort bénéficie du fait que l’IA est venu de l’âge comme un problème informatique. L’industrie des puces besoin d’un produit qui pourrait avantage d’avoir une très grande quantité de silicium est consacré. “Clairement, l’IA est un bon choix,” dit Lamond. “Il est massivement parallèle, avec des centaines de milliers de cœurs qui ont à travailler en parallèle, mais à partir d’un point de vue logique, il n’est pas si compliqué que ça, c’est juste ajoute suivie par multiplie suivie par ajoute,” at-il dit, se référant à l’vecteur-matrice de multiplications qui sont au centre de l’apprentissage machine.

Lamond voit un brillant avenir devant générer d’énormes disparités dans les performances avec chaque nouvelle version de la WSE et le système qui l’exécute.

Rubriques Connexes:

Développeur

Transformation Numérique

CXO

L’Internet des objets

L’Innovation

Des Logiciels D’Entreprise