Comment Amazon DeepLens cherche à refiler la vieille web avec la nouvelle IA

0
110

Zero

Chaque Amazon Echo, à la Maison de Google, Sonos, ou d’un dispositif similaire dans votre maison, qui reconnaît votre voix, et tous les smartphone par le biais de laquelle vous ai jamais parlé avec Siri, Alexa, ou Cortana, a ouvert et canal direct aux serveurs quelque part sur l’extrémité arrière qui sont en cours d’exécution de l’intelligence artificielle. En volume, la catégorie IA application qui est à ou près du haut de la plus activement déployé liste n’est pas prise de décision ou de prévision, mais de la reconnaissance vocale. Comme la bande passante devient de plus en plus abondant et fonctions sur le cloud plus accessible, la reconnaissance de l’objet à partir de la vidéo ou des photographies ne seront pas loin derrière pour longtemps.

Aussi: qu’est-Ce que AWS DeepLens?

En novembre 2017, Amazon Web Services a lancé une véritable expérience pour déterminer combien de temps la reconnaissance de l’objet peut devenir à la fois viable et fiable. Comme Echo, DeepLens est une Amazone dispositif approprié pour le déploiement. Contrairement à l’Écho, c’est un processeur Intel Atom X5 base, Ubuntu Linux-alimenté, quad-core, ordinateur, un appareil photo dont l’objectif est d’analyser de quelque chose ou de quelqu’un en particulier. Derrière l’appareil, sur le côté serveur du système, Amazon serveurs d’exécuter des algorithmes de balayage de l’entrant le contenu de la vidéo à la recherche de quelque chose de familier: Toute partie de l’image que ses bases de données ont déjà étiquetés et identifiés.

Imaginez ce que un AI-alimenté appareil photo pourrait ne

171129-andy-jassy-re-invent-2017.jpg

“Nous croyons que vous serez en mesure de commencer l’exécution de votre première apprentissage en profondeur, la vision par ordinateur modèle en dix minutes, à partir du moment que vous avez “unboxed” l’appareil”, a déclaré AWS chef de la direction Andy Jassy, en annonçant le produit lors de sa compagnie re:Inventer de conférence en novembre 2017.

“Vous pouvez programmer cette chose à faire presque tout ce que vous pouvez imaginer”, a poursuivi la ville de iaşi. “Par exemple, vous pouvez imaginer la programmation de l’appareil photo avec la vision par ordinateur des modèles où, si vous reconnaissez un de plaque d’immatriculation à venir dans votre allée de garage, il va ouvrir la porte du garage. Ou vous pouvez le programmer pour qu’il vous envoie une alerte lorsque votre chien monte sur le canapé.”

amazon-deeplens.jpg
(Image: Amazon)

Comme vous l’avez pris de me dire que dans ZDNet avant, que le mot “imagine”, peut être le tripwire. “Imagine” est le mot vendeurs invoquer quand ils en ont besoin pour tirer parti de votre propre esprit pour combler certaines lacunes dans leurs propres produits. DeepLens est loin d’être prêt pour le commerce de détail le marché de la consommation. Heureusement, d’autres que dangereux mot “imagine”, il ne prétend pas l’être.

Amazon de la participation de l’

DeepLens est une expérience, qui, pour $249 vous pouvez participer en vous-même, si vous avez une certaine expérience de la formation des réseaux de neurones à convolution (CNNs, et non, je n’ai pas juste faire que haut). C’est une expérience importante de la part d’Amazon du côté de le système, comme un effort pour rendre le nuage de l’IA des services rentables.

En octobre 2017, Amazon habilement inséré un porche d’entrée de la caméra dans le cadre de la sortie de son Amazon la livraison Clé du système. Puis en février, Amazon a acquis de l’Anneau, une entreprise qui avait déjà produit une sonnette caméra qui alerte les utilisateurs à travers le web que les gens sont à leurs portes. Mais DeepLens n’est pas seulement sur le porche de la maison. Son objectif semble… bien, de plus profond: Pour établir les connexions qui lient le web, à une époque lors de la saisie sera la veille de la méthode de communication avec le moteur de recherche.

Aussi: AWS prend DeepLens, une machine d’apprentissage de la caméra, GA

Google est devenu le champion de la recherche sur le web quand il a trouvé un moyen de tirer des revenus de chaque requête-par le biais de la pertinence des mots clés basés sur la publicité. Comme de plus en plus de recherches et des opérations similaires pour devenir effectuées à l’aide de la voix et, finalement, la vidéo-qui consomment des ordres de grandeur plus grande bande passante que le texte, le coût de traitement de ces transactions s’élève. Et puisque le mot-clé annonces de marché il y a longtemps est devenu banalisé, l’augmentation des taux n’est plus une option.

Si le mot-clé annonces marché s’effondre, le web tel que nous le connaissons va disparaître. Donc le temps de découvrir la prochaine génération de transactions rentables, c’est maintenant. DeepLens aventure au-delà du territoire de l’Écho, dans l’incertain embryon d’une nouvelle et largement indéterminée marché, avec toute la ténacité d’une organisation à la fois le capital et les moyens de faire un ou deux faux pas sur le chemin… si il donne à Amazon une chance de tirer parti de son expertise de plus en plus dans l’apprentissage en profondeur à l’angle d’une nouvelle industrie.

Imaginez un monde, Amazon pourrait se dire à lui-même, où Google n’est pas déjà 85 pour cent de la voie vers ce que c’est que vous rêvez d’accomplir.

Ce DeepLens ne fait

Vous pouvez avoir pris un ou deux de la DeepLens unboxing cérémonies capturées et partagées sur YouTube, et se demandait encore, ce qui fait que quelqu’un fasse avec elle après qu’il est branché?

181121-deeplens-sample-apps.jpg

Il y a une poignée d’exemples d’applications, dont l’une a été inspiré par un épisode de la série de HBO “Silicon Valley”. Elle tente d’identifier un hot-dog, fondées sur des données déjà recueillies à partir de l’analyse des images et des vidéos de hot-dogs. (Cette dernière phrase devrait vous dire tout ce que vous devez savoir à propos de DeepLens prêt pour le prime time.)

Aussi: Google courses contre AWS, Microsoft pour apporter de l’IA pour les développeurs

Il y a quelques autres: l’Une qui estime le nombre de degrés d’inclinaison de la tête d’une personne; un autre qui tente de discerner les images de chats à partir d’images de chiens par groupe de deux; l’un qui tente de reconnaître les actions associées à environ trois douzaines d’activités, y compris couper les aliments avec un couteau et en jouant du tambour; et il est intéressant de noter, qui tente d’appliquer le style artistique de la peinture c’est étudié pour un monde réel de l’image.

julien-simon-papis-conference-may-2018.jpg

Sur une machine d’apprentissage de conférence à Londres en avril 2018, AWS évangéliste technique de Julien Simon a démontré une de DeepLens échantillon d’applications, l’identification des chaises, les gens, et les bouteilles dans la même pièce. Ce que la démo a réussi à révéler, c’est que, au moins à un moment, DeepLens ne fait pas grand chose sur son propre. Lorsqu’un participant a placé une protéine secouer la bouteille avant de l’appareil, DeepLens n’a fallu que quelques secondes pour identifier correctement comme une bouteille.

deeplens-identifies-a-bottle.jpg

“Youpi, l’apprentissage en profondeur!”, a déclaré Simon, mais pas trop ardemment. “C’est la chose, il a seulement 20 choses à choisir. Il est donc peu probable qu’il va dire, des “Moutons”, mais on ne sait jamais… bien sûr, ce que vous voulez faire est de former vos propres modèles. Vous souhaitez lancer votre propre projet… C’est l’idée, vraiment: laisser les gens se former et de construire des applications amusantes.”

“Pour les IA en général, beaucoup de projets au début souffrent d’un manque de données,” a fait remarquer mon ami de longue date et collègue, et de confrères de ZDNet contributeur, Ross Rubin. “Comme vous l’avez plus de développeurs en apportant plus de scénarios pour la table, la technologie sous-jacente peut améliorer.”

Vrai de consommation de l’intelligence artificielle, le niveau requis pour identifier de manière fiable de multiples classes d’objets collectivement (par opposition à un seul, comme les visages des personnes) n’est pas encore élaboré. Ce qu’Amazon est vraiment expérimenter avec ici est l’idée que ses modèles de consommation peut être appliquée à des personnes capables de développer ces capacités, que les gens seraient prêts à payer pour la possibilité de faire de futures applications possibles.

Aussi: Formule 1 choisit AWS officiel cloud, machine fournisseur de services d’apprentissage

“De toute évidence, de nombreux projets open source de commencer avec le germe d’une idée, et des fonctionnalités de base dans les premiers jours”, a ajouté le Rubin. “Ils attirent l’intérêt et de l’améliorer, et dans de nombreux cas, devenir soit de compétition ou de meilleur-dans-classe au fil du temps.”

Sous la surface, mais pas très loin en dessous, DeepLens l’expérimentation d’un toolkit clairement orientée de haut niveau pour les programmeurs habitués à faible niveau de transactions avec Linux en ligne de commande clients. Il peut sembler plus comme un haut de gamme, le mouvement de suivi des add-on pour une console de jeu, mais dans la pratique c’est beaucoup plus comme l’Altair 8800 en 1975 — un grille-pain de la taille de la boîte de la mendicité pour quelque chose de nouveau à faire.

Est-il vraiment libre?

Pour la plupart, les bibliothèques logicielles utilisées dans la création de DeepLens logiciel est open source. Ce fait ne permet pas de restreindre les applications que l’on produit avec elle, d’être open source. Selon la licence, les produits commerciaux peuvent être construits avec l’open source fondements. Un coup d’œil sur la DeepLens licence révèle que Amazon restreint ses développeurs à l’aide de DeepLens “à des fins personnelles, éducatives, d’évaluation, de développement et de tests, et de ne pas traiter vos charges de travail de production.” Cette dernière partie suggère DeepLens ne peut pas être utilisé comme une partie de quelqu’un d’autre le développement de produits commerciaux.

La licence n’est pas allé jusqu’à insinuer que Amazon a de facto la propriété ou le droit de premier refus, en plus de tout ce qu’un développeur peut créer avec elle. Toutefois, il ne suggère rien d’autre qu’un développeur peut faire avec elle en dehors de l’expérience, la limitation de ses activités commerciales, de négociation avec Amazon. Les Participants à la DeepLens Défi compétitions ont vu leurs œuvres publiées à GitHub, actuellement les plus éminents de l’open source canal de distribution.

N’est pas Google de faire quelque chose de similaire?

Un mois avant d’Amazon 2017 annonce avec son propre Google a déclaré l’existence d’un projet appelé Google Clips, en utilisant un dispositif qu’il croit est assez petit pour être portable. (Peut-être à l’Halloween, ou pour faire peur à vos enfants en leur faisant croire que vous êtes partie-Dalek.) Par rapport à DeepLens, les Clips n’est pas une IA expérimentale trousse à outils, mais plutôt un appareil qui utilise la détection de mouvement, avec ce que Google est admissible à titre d’IA, afin de saisir ce qu’il détecte à être juste au bon moment, sans le besoin d’interaction humaine. Clips est limitée à cette seule fin, mais il maintient l’endroit de Google dans la discussion de l’IA dans l’Internet des objets.

Ce DeepLens est Vraiment Fait De

Dans l’ensemble, le DeepLens système est composée de l’Intel Atom / Ubuntu ordinateur sur le côté client, le vaste réseau AWS de l’IA et de services sur le serveur, et un moins-que-insignifiant peu de fil et le coller dans le milieu on appelle internet. L’ensemble du système est nécessaire pour que DeepLens pour terminer toute seule tâche, et ce qui relève de la catégorie d’identifier des objets à partir de photos ou de la vidéo.

Aussi: Amazon plates-formes, des écosystèmes et de la vitesse d’annoncer une voix-première transformation

Le but de la partie cliente de l’appareil est de collecter les données vidéo nécessaires pour les très grands ensembles de données requis pour former le système quant à la façon de reconnaître les objets. Par “reconnaître”, je veux dire d’être capable de marquer un motif de pixels adjacents à partir de la mi une photo ou une vidéo comme étant assez similaire à un modèle qui a été observé auparavant. Et par “objet”, ironie du sort, je suis très subjective. Ce que le système va caractériser comme un “objet” est un modèle défini par les règles que les algorithmes d’IA a été déterminé pour eux-mêmes. En d’autres termes, je ne peux pas vraiment expliquer ce qui en fait un objet un objet”,” autres que la présomption que le système aura identifié des caractéristiques qui, pour ses propres fins, admissible à titre de similitudes. Pensez à la façon dont un bébé apprend à imiter les sons de ses parents faire (sans Amazon avoir imprimé un manuel pour sa première) et vous obtiendrez quelque chose d’objectivement similaire au point que je suis en train de faire.

Le fait que DeepLens’ hot-dog app de reconnaissance est correct aussi souvent qu’il est, est quelque chose d’impressionnant. Il a déjà, à un degré raisonnable, été formés. Plus précisément, l’application a déjà été nourris de très grands ensembles de données (pour l’instant, c’est le terme pour eux), qui sont pour l’application des fiducies pour représenter la même chose. Ses algorithmes ont identifié des corrélations, qui servent de son best-guess-estimations pourquoi toutes ces images comprennent la même chose. Le test est de savoir si ces corrélations sont suffisamment importants pour que l’application puisse réellement savoir un hot-dog quand il en voit un.

Ce DeepLens besoins afin de faire quelque chose de sérieux

De la graine d’intérêt dans l’appareil, AWS a donné son premier lot de sélectionner les développeurs qui assistent à ses re:Inventer 2017 conférence. Là, ils ont pu assister à la première session consacrée à la programmation de la chose.

“Probablement la première chose que nous avons besoin est d’être en mesure d’expérimenter dans le cloud”, a déclaré AWS Julien Simon. “Évidemment, même si nous voulons déployer sur le bord, à la caméra, de tout type de capteur, drones, etc., nous avons encore besoin de travailler avec des ensembles de données dans le cloud.”

Aussi: Pourquoi Amazon est à la maison robots ne sont pas un stretch: Toute l’infrastructure, de l’écosystème via AWS est en place

Au cœur de la DeepLens système dans le cloud est, en l’absence de toute autre abréviation, la CNN. On pourrait passer plusieurs volumes de la définition de cette expression (croyez-moi, j’ai essayé), mais je peux au lieu de vous donner quelques images de base que vous donner l’essentiel de l’idée.

neural-net-02tkm11.jpg
(Image: Scott Fulton III)

En informatique, un réseau de neurones est un modèle pour la représentation des valeurs basées sur une vieille théorie (qui, ironie du sort, les neurologues face a depuis été réfutée) sur la façon dont le cerveau apprend à reconnaître des modèles. Le modèle fait appel à des associations, dont la théorie explique que les relations qui sont mémorisés. Ces associations sont physiquement représenté par les neurones, comme les sockets dans une installation électrique de la chaîne d’lié par des fils de fer. En tant qu’association grandit, son fils est “happé”, si vous voulez, par un représentant de poids qui donne une priorité plus élevée lorsque le cerveau tente de se rappeler et se rappeler d’une chose. Ce que le poids est extraire — la substance physique de l’association — est appelé un axone.

Ainsi, un ensemble de données, tel qu’une image ou un ensemble d’images à partir d’une vidéo, imprime lui-même dans la séquence sur le réseau de neurones. Comme certaines impressions sont faites de plus en plus fréquemment, leur représentant poids croître plus lourd, et de leurs axones sont une priorité plus élevée.

Aussi: Alexa pour les Affaires de chances de gagner à smart office, l’effet de levier AWS, l’Echo, les développeurs et les consommateurs

La convolution de la partie (le “C” de la partie de la phrase, ce qui serait particulièrement impressionnant si elle a été prononcée par James Earl Jones) est, en réalité, assez littéralement, alambiquée. Il a deux de corriger simultanément significations, dont l’une peut être la possibilité d’avoir deux de corriger simultanément significations. Les neurologues percevoir un modèle où les associations sont torsadés ensemble comme un jelly roll ou de la spirale de brins d’ADN. Comme ces alambiqué brins de l’expérience de plusieurs couches de traitement, au fil du temps les propriétés et les caractéristiques des choses que le cerveau perçoit (taille, couleur, forme) peut prendre sur le réel, les proportions physiques-une véritable poignée sur des choses qui présentent des similitudes. De cette façon, lorsque le cerveau déclenche un signal qui est essentiellement catégorielles (par exemple, une recherche pour toutes les choses de plus gros qu’un breadbox), on peut rappeler que les objets appartenant à la classe aussi facilement qu’il peut rappeler un objet unique. Au moins, c’est la théorie, en supposant que vous ne le croyez.

En informatique, un modèle convolutif est un endroit où les tables de valeurs peuvent être transposés dans de longues séquences, et/ou vice-versa. CNN fait en fait le dernier pour parvenir à l’ancienne.

Les composants logiciels de DeepLens

Lorsque vous jouez avec DeepLens, vous faites des expériences avec les mécanismes avec lesquels le modèle est produit. Voici certains des outils logiciels vous utilisez dans le cadre de DeepLens:

TensorFlow — Le premier framework open source pour l’automatisation de la distribution des événements et des actions sur les différentes couches dans DeepLens des séries de données. Un tenseur est un ensemble de valeurs dans un espace avec un nombre quelconque de dimensions (“avec” n “dimensions”). Les valeurs inhérentes à une image vidéo devrait se traduire par un 2D tenseur. Typique d’un langage de programmation attribue des valeurs individuelles à des symboles ou à des unités de mémoire; avec TensorFlow, vous distribuez des actions sur des zones. Amazon SageMaker , qui a été Annoncée au cours de la même semaine que DeepLens, SageMaker est AWS service basé sur le cloud pour l’automatisation de la formation de modèles dans un apprentissage en profondeur du système. Le hot-dog app de reconnaissance a été déjà formés; vous utilisez SageMaker pour créer un nouveau modèle pour la détection d’un objet différent, ou peut-être une catégorie d’objets avec une même caractéristique. C’est une Amazone produit en lui-même, demandant à l’utilisateur d’avoir assez d’importants investissements dans les services de nuage AWS (ah, là le hic!), y compris de stockage S3 seaux. AWS Lambda — Amazon de la fonction en tant que plate-forme de service, à l’aide de ce que beaucoup appellent un “sans serveur” du modèle (vous ne pensez pas au serveur de beaucoup lorsque vous utilisez la fonction). En soi, Lambda exécute les fonctions sur ses propres serveurs, et restitue les résultats sous forme de solutions. Beaucoup de DeepLens’ fonctions nécessaires sont fournis pour le système Lambda fonctions. AWS Greengrass , Parce que c’est pas pratique pour l’ensemble de la machine de l’apprentissage de l’opération pour la vidéo à être traitées dans le cloud, AWS a conçu un système pour les Lambda fonctions à être transmises à des périphériques à distance, par exemple, l’Internet des objets composants — et exécuté il y, à “la pointe.” Intel Atom X5 zone est l’un de ces composants. Avec Greengrass, une fonction Lambda est toujours “consommé” la façon dont il serait si elle était en cours de traitement dans l’Amazon cloud, sauf que c’est en cours de traitement au niveau local.

Un autre bord

Lorsque AWS Simon se réfère à “la pointe”, il signifie la frontière extérieure d’un système de communication qui est le plus proche de ses messages à destination. Comme les lecteurs réguliers de ZDNet peut rappeler, il n’y a pas vraiment d’un bord (ce qui rend l’utilisation de “la” dans ce contexte un peu de présomption). Ici, ce que Simon est fait référence à la DeepLens appareil capacité à pré-traiter, nettoyer, et de transformer les données vidéo dans une certaine mesure, avant de l’envoyer sur AWS serveurs.

Si la bande passante ont été omniprésents et les serveurs cloud infiniment puissant, le DeepLens dispositif pourrait être un peu plus qu’une calculatrice de poche avec un téléobjectif. Il pourrait envoyer la vidéo en streaming directement sur le cloud, et vous auriez votre réponse quant à savoir si les images contenir un hot-dog ou non, dans une seconde ou deux.

Dans un tel environnement, il n’y aurait pas besoin d’être un “bord.” Tout le traitement pourrait avoir lieu dans le cloud, sur l’extrémité arrière.

Aussi: Alexa pour l’Entreprise: les 10 points clés

Si vous avez déjà téléchargé une vidéo sur YouTube, vous savez très bien pourquoi ce n’est pas encore possible. La bande passante n’existe pas encore, et pas seulement pour la vidéo en temps réel uploads mais, en outre, d’analyse instantanée.

Donc DeepLens doit avoir une puissance de traitement juste à côté de son utilisateur, à ce que Simon et Amazon perçoivent comme le bord. Maintenant qu’un grand nombre de personnes, moi y compris, ont pleinement fonctionnel Linux ordinateurs dans leurs poches, il devrait choquer personne que DeepLens ” Intel Atom X5 appareil est un ordinateur complet dans un facteur de forme proche de celle d’un disque dur externe ou un livre relié.

Le DeepLens facteur de forme

Le DeepLens appareil communique avec ses utilisateurs (dont il prétend être un expert développeur) à l’aide d’un “terminal” — une ligne de commande Linux. Alors qu’il aurait pu utiliser une interface graphique ou d’un navigateur web, Intel suppose que le développeur a déjà ces choses sur son PC de toute façon, avec qui elle peut déjà communiquer avec AWS, et l’accès à la DeepLens de la Console. L’ajout d’un autre navigateur pour le mélange serait redondante.

deeplens-tech-specs.png

En temps réel de la vidéo numérique, il n’y a pas encore de manière à transmettre les données, les stocker, puis de les analyser assez vite pour les résultats de cette analyse pour toujours être utile. C’est pourquoi le périphérique Intel est vraiment une pleine échelle de l’ordinateur.

Si vous possédez déjà une pleine échelle de l’ordinateur, vous demandez peut-être pourquoi ne pas AWS simplement vendre l’appareil photo en tant que périphériques de PC, et de distribuer de l’IA, la demande sur le web? C’est certainement faisable. Mais avec le marché du PC se calmer, et Windows 10 de générer autant d’enthousiasme des consommateurs comme un vaccin contre la grippe, la première vraie génération de consommateurs orienté réseau de neurones à base de IA aurez aussi besoin d’être quelque chose qui saisit des consommateurs cœurs et leurs esprits.

Est DeepLens intelligent?

“L’intelligence artificielle” est une grande part de subjectivité terme. Comme je l’ai défini au cours des dernières décennies, elle a une limite qui peut être déplacée que ce soit des personnes ou des machines soit généralement plus intelligents ou aller dans l’autre sens.

Pour afficher l’intelligence artificielle est un mécanisme quelconque pour rendre un résultat dont le résultat s’affiche, pour une personne raisonnable, pour avoir des renseignements requis. Autrement dit, si quelque chose ressemble le produit d’une personne intelligente, mais n’est pas le travail de toute entité vivante, son praticien est susceptible d’être l’IA.

Aussi: AWS lance un nouveau dispositif de sécurité pour empêcher l’activation accidentelle de S3 fuites de données

À ses débuts, la reconnaissance vocale a été désigné une IA de catégorie. Au fil du temps, car il devient de plus en plus courants, les êtres humains attribut de moins en moins l’intelligence artificielle, ou autrement, à la notion de machines à reconnaître votre voix et de répondre de façon raisonnable. Dans un sens, c’est la partie raisonnable qui travaille contre l’IA, la diffusion de la mystique et de l’exposer lui-même comme de plus en plus le produit d’une intelligence élevée que le producteur.

Mais Ross Rubin estime que la mystique ne va pas loin. Il va tout simplement se transférer à la prochaine ronde d’étonnant, si ce n’est pas encore fonctionnelle, applications. Aujourd’hui, Apple et d’autres sont en train d’expérimenter avec examinant les visages de téléspectateurs pour détecter les expressions qui pourraient révéler leurs véritables sentiments sur les programmes qu’ils regardent. Rubin a fallu que à l’étape suivante, en envisageant une manière une telle application pourrait être fait pertinente pour un utilisateur individuel.

“Quelqu’un qui est de donner une présentation lors d’une conférence,” Rubin projets”, pourrait être en mesure d’obtenir une rétroaction en temps réel, peut-être anonymes: “Hé, l’ami, vous êtes losin’ em! Cette idée vous est proposé sinkin’ comme un rock!’ Ou, Vous avez certainement touché quelque chose qu’il y a une certaine sensibilité à ce groupe.’ Qui pourraient être de précieux commentaires dans une organisation.”

Lorsqu’un produit de consommation ou inspiré par DeepLens rend enfin disponible, sur Amazon ou quiconque franchit cette étape première, et il rend un jugement d’appel, que la personne habillée comme un lecteur de compteur dans votre arrière-cour n’est pas en fait un lecteur de compteur, des réussites de son arrestation va probablement faire la une des journaux et de gagner 20 secondes mention sur les nouvelles du soir. Cinq ans plus tard, lorsque ces sortes d’événements sont monnaie courante, les algorithmes, les responsables de ces corriger les appels de jugement peut ne plus être généralement considéré comme l’intelligence artificielle, mais plutôt un simple fiable et pratique.

En savoir Plus — De CBS Interactive Réseau

Qu’est-ce que l’apprentissage en profondeur? Tout ce que vous devez savoir par Nick Heath, l’Intelligence Artificielle de Google s’interroge sur les lacunes de l’apprentissage machine en Ligne de Ray, l’Intelligence Artificielle AWS annonce SageMaker Mode Local pour la construction de IA localement par Stéphanie Condon, Entre les Lignes

D’ailleurs

Une Plongée Profonde sur AWS DeepLens par Janakiram MSV, La Nouvelle Pile AWS Met Plus de Muscle Derrière l’Apprentissage de la Machine et de la Base de données par Jeffrey Burt, La Prochaine Plate-forme de l’IA à la pointe pénètre dans le bain alors que les appareils intelligents spew inexploité données par Kurt Marko, Diginomica

Précédente et de la couverture liée

Qu’est-ce que l’IA? Tout ce que vous devez savoir

Un exécutif guide de l’intelligence artificielle, de l’apprentissage machine et général de l’IA pour les réseaux de neurones.

Qu’est-ce que l’apprentissage en profondeur? Tout ce que vous devez savoir

La vérité sur l’apprentissage en profondeur: de comment il s’inscrit dans le champ plus large de l’apprentissage de la machine grâce à la façon d’obtenir commencé.

Qu’est-ce que l’apprentissage de la machine? Tout ce que vous devez savoir

Ce guide explique ce qu’est l’apprentissage de la machine est, comment elle est liée à l’intelligence artificielle, comment il fonctionne et pourquoi c’est important.

Qu’est-ce que le cloud computing? Tout ce que vous devez savoir à propos de

Une introduction à l’informatique en nuage à droite de la base jusqu’à l’IaaS et PaaS, hybride, public et cloud privé.

Rubriques Connexes:

Amazon

Transformation Numérique

CXO

L’Internet des objets

L’Innovation

Des Logiciels D’Entreprise

0