
Image: Getty Images/iStockphoto
Les réseaux de neurones, les machines-systèmes d’apprentissage, d’analyse prédictive, de reconnaissance de la parole, de langage naturel de la compréhension et des autres composants de ce qui est défini comme ‘intelligence artificielle’ (AI) sont actuellement en phase de boom: la recherche progresse à grand pas, l’attention des médias est au plus haut de tous les temps, et les organisations sont de plus en plus la mise en œuvre de l’IA des solutions à la poursuite de l’automatisation pilotés par des gains d’efficience.
La première chose à établir est ce que nous ne parlons pas, ce qui est de l’homme au niveau de l’IA, souvent appelé “IA forte” ou “artificielle général de l’intelligence” (AGI). Une enquête menée auprès de quatre groupes d’experts en 2012/13 par l’IA chercheurs Vincent C. Müller et Nick Bostrom a rapporté 50% de chance que l’AGI serait développé entre 2040 et 2050, passant de 90% d’ici 2075; soi-disant “super-intelligence’ — qui Bostrom définit comme “toute intelligence qui dépasse de beaucoup les performances cognitives des êtres humains dans pratiquement tous les domaines d’intérêt” — qui était attendu près de 30 ans après la réalisation de l’AGI (Questions Fondamentales de l’Intelligence Artificielle, Chapitre 33). Ce genre de choses vont se passer, et elle a certainement besoin d’un examen attentif, mais il ne se passe pas maintenant.
Ce qui se passe là, maintenant, à un rythme croissant, est l’application d’algorithmes d’IA à toutes sortes de processus qui peuvent affecter de manière significative la vie des peuples ” — au travail, à la maison et comme ils voyagent à travers. Bien que le battage médiatique autour de ces technologies est l’approche du pic de l’attente ” (sensu Gartner), il y a un potentiel de voler dans l’IA pommade: le fonctionnement de la plupart de ces algorithmes ne sont pas ouverts à l’examen-soit parce qu’elles sont la propriété des actifs d’une organisation ou parce qu’ils sont opaques, de par leur nature.
Si pas correctement traitée, ces préoccupations pourraient aider à tourner overhyped attentes pour l’IA dans un jeu (Gartner “creux de la désillusion’).
De nombreux IA des technologies liées à l’approchent ou ont déjà atteint le “pic des attentes démesurées’ dans Gartner Hype Cycle, avec le jeu-driven “creux de la désillusion’ à l’affût.
Image: Gartner / Annotations: ZDNet
Voici un exemple: en Mai de cette année, COMPAS, propriétaire d’un algorithme d’évaluation du risque qui est largement utilisé pour décider de la liberté ou de l’incarcération des prévenus en passant au travers du système de justice pénale a été allégué par en ligne de journalisme d’investigation site Unpropublica être systématiquement biaisés contre les afro-Américains par rapport aux blancs. Bien que Northpointe (la société à but lucratif derrière COMPAS) contestée Unpropublica de statistique de l’analyse de générer encore plus de controverse, l’utilisation généralisée de la étroitement surveillé algorithmes propriétaires dans des domaines sensibles tels que la justice pénale est une cause de préoccupation, à tout le moins.
Parfois, le biais peut être introduit par les données de réseau de neurones algorithmes sont formés. En juillet de cette année, par exemple, Rachael Tatman, la National Science Foundation Graduate Research Fellow au Département Linguistique à l’Université de Washington a constaté que de reconnaissance vocale de Google système a fonctionné de mieux pour voix d’hommes que les femelles si l’option de sous-titrage d’un échantillon de vidéos sur YouTube, un résultat qu’elle attribue à “déséquilibré formation” jeux avec une prépondérance des mâles haut-parleurs. Comme Tatman noté, un peu incorrect YouTube légendes ne vont pas causer du tort, mais de même de la reconnaissance vocale préjugés médicaux ou liés aux applications de bord, par exemple, serait tout à fait autre chose.
Bien que l’IA est souvent confondu avec “deep learning” réseaux de neurones, l’intelligence artificielle de l’écosystème englobe de nombreux types de l’algorithme.
Image: Récit De Science
Les réseaux de neurones comme des “boites noires”
Les réseaux de neurones sont une source de préoccupation particulière, non seulement parce qu’ils sont un élément clé de nombreuses applications de l’IA — y compris la reconnaissance d’image, reconnaissance de la parole, du langage naturel de la compréhension et de la traduction automatique, mais aussi parce qu’ils sont quelque chose d’une “boîte noire” lorsqu’il s’agit d’élucider exactement la façon dont leurs résultats sont générés.
Les réseaux de neurones sont ainsi appelées parce qu’elles imitent, à un degré, la manière dont le cerveau humain est structuré: ils sont construits à partir de couches de interconnectés, des neurones, des nœuds et comprennent une couche d’entrée, une couche de sortie et un nombre variable d’intermédiaire “caché” couches — “profond” des réseaux de neurones simplement avoir plus d’une couche cachée. Les nœuds eux-memes relativement simples opérations mathématiques, mais entre eux, après la formation, ils peuvent traiter inédites de données et de générer des résultats corrects basés sur ce qui a été appris à partir des données de formation.
La structure et la formation de réseaux de neurones profonds.
Image: Nuance
La clé de la formation est un processus appelé “retour de propagation de’, dans lequel étiquetés exemples sont introduits dans le système et la couche intermédiaire paramètres sont progressivement modifié jusqu’à ce que la couche de sortie fournit un excellent match pour la couche d’entrée.
C’est une chose de créer un modèle qui donne des résultats précis avec d’inédits de données, mais que comme discuté plus tôt, dans de nombreuses applications du monde réel, il sera souhaitable d’examiner le processus de décision interne dans le détail.
Nils Lenke, Directeur Principal, Recherche d’Entreprise chez Nuance, reconnaît le problème: “C’est un très intéressantes et pertinentes au sujet, parce que par rapport à, disons, la règle de base de systèmes, de réseaux de neurones ou de toute autre machine-les algorithmes d’apprentissage ne sont pas transparentes. Il n’est pas toujours clairement ce qui se passe à l’intérieur — vous que le réseau organiser elle-même, mais que signifie vraiment il ne s’organiser lui-même: il ne fait pas nécessairement de vous dire comment il a fait ça.”
Peering à l’intérieur de la boîte noire
Cette “boîte noire” problème a été abordé dans un article récent à partir du MIT Computer Science and Artificial Intelligence Laboratory (CSAIL), qui a examiné les réseaux de neurones formés sur des données textuelles à l’aide d’un système composé de deux modules (un “générateur” et un “encoder”. Le générateur d’extraits de grands segments de texte à partir des données de formation, en donnant des scores élevés à court, cohérent chaînes; elles sont ensuite transmises à l’extracteur, qui s’acquitte de la tâche de classification. L’objectif est de maximiser à la fois le générateur de scores et de l’exactitude de l’extracteur des prédictions.
Pour évaluer la façon dont ce système fonctionne, l’un des ensembles de données de formation les chercheurs ont utilisé un ensemble de près de 1 500 commentaires à partir d’un site web consacré à la bière. Un millier de ces analyses a été annoté de la main pour indiquer la correspondance entre les phrases et réviseur des scores (de 1 à 5) pour l’aspect, l’odeur et la bouche. Si le générateur/extracteur de réseau de neurones réussi à identifier les mêmes phrases et de les corréler avec le même examinateur cotes, alors il faudrait que l’exercice de l’homme-comme un jugement.
Les résultats ont été impressionnants, avec le réseau de neurones montrant des niveaux élevés d’accord avec l’homme annotators sur l’apparence (96.3%) et de l’odorat (95.1%), bien qu’il ait été un peu moins sûre sur les la plus difficile du concept de la bouche (80.2%).
Selon le MIT, les chercheurs ont appliqué leur raison d’être-la méthode d’extraction de données médicales, à la fois textuel (les rapports de pathologie sur des biopsies) et par imagerie (mammographie), bien que non publié un rapport sur ce travail est encore disponible.
Un coup de main de l’homme
Ces développements encourageants, mais que faire si un système d’IA ne peut pas faire confiance pour prendre des décisions importantes sur son propre?
Nuance de Nils Lenke décrit les options: “La première chose dont vous avez besoin pour des cas plus spécifiques est une mesure de confiance, de sorte que non seulement vous obtenez un résultat à partir du réseau de neurones, mais vous pouvez également obtenir une compréhension de la façon dont la certitude est qu’il a le droit de suite. Qui peut vous aider à prendre des décisions — avez-vous besoin d’une preuve supplémentaire, vous avez besoin d’un être humain pour regarder à la suite, pouvez-vous prendre à leur valeur nominale?”
“Alors vous avez besoin de regarder les tâches à la main,” Lenke continue. “Pour certains, ce n’est pas vraiment important si vous ne comprenez pas ce qui se passe, ou même si le réseau est mauvais. Un système qui suggère de la musique, par exemple: tout ce qui peut aller mal, vous écouter ennuyeux morceau de musique. Mais avec des applications comme entreprise de service à la clientèle, où les transactions sont impliqués, ou assistées par ordinateur-amélioration de la documentation clinique, ce que nous avons généralement de faire il est, nous ne mettons pas de l’IA dans l’isolement, mais nous l’avons co-travail avec un être humain.”
Un homme assistée virtual assistant (HAVA) déployés dans les entreprises de service à la clientèle de l’application.
Image: Nuance
“Dans le service à la clientèle de l’arène que nous appelons HAVA, ou de la personne Assistée, l’Assistant Virtuel”, explique Lenke. “La chose intéressante ici est que nous avons quelque chose appelé “passage récupération”: disons que le client pose une question, soit par le biais de la reconnaissance vocale ou de données saisies à partir d’une conversation ou de l’interface web; ensuite, l’assistant virtuel va à travers ses faits et des données, qui peut être une collection de manuels et de documents fournis par la société, et trouve les passages pertinents, qu’il présente à l’agent de l’homme, qui fait l’appel final. Il est plus efficace, parce que l’IA présente de l’information pertinente pour lui.”
“Je pense que vous pouvez voir à partir de l’expérience de Microsoft avec son chat bot que de mettre l’IA dans un mode où il n’est pas supervisé peut supporter des risques” Lenke ajoute. “C’est pourquoi nous croyons que ce commissaire, où l’homme cherche à la matière et qui a le dernier appel, est la bonne façon de le faire pour les applications critiques.”
De l’éthique et de l’IA
Beaucoup de gens, y compris Stephen Hawking, Elon Musk et conduisant AI chercheurs-ont exprimé des préoccupations au sujet de la façon dont l’IA pourrait se développer, conduisant à la création d’organisations telles que l’ouverture de l’IA et le Partenariat sur l’IA visant à éviter les pièges potentiels.
L’objectif de l’Open d’IA, fondée en décembre 2015, et co-présidé par Elon Musk et Sam Altman, est de “favoriser intelligence numérique dans la manière qui est la plus susceptible de profiter à l’humanité dans son ensemble, sans les contraintes d’un besoin de générer un rendement financier.”
Partenariat sur l’IA, qui a été annoncée en septembre 2016 avec les membres fondateurs Amazon, Facebook, Google, IBM et Microsoft, cherche à soutenir la recherche et recommander les meilleures pratiques, de faire avancer la compréhension par le public de l’IA, et de créer une plate-forme ouverte pour la discussion et l’engagement.
Plus récemment, l’Université de Carnegie Mellon a annoncé un investissement de 10 millions de dollars de cabinet K&L Gates) pour l’étude de l’éthique et des questions de politique liées à l’intelligence artificielle et des autres technologies de l’informatique.
Un parfait exemple de pourquoi l’éthique de l’IA besoin de surveillance est venu dans un article récent intitulé Automatisé de l’Inférence sur la Criminalité en utilisant des Images de Visage par deux chercheurs de la Shanghai Jiao Tong University. Dans un troublant écho de longue discrédité les tentatives de corrélation physionomie avec la propension à la criminalité, Xiaolin Wu et Xi Zhang a construit quatre classificateurs — y compris un réseau de neurones à convolution — à l’aide de “l’image du visage 1.856 réel des personnes contrôlées pour la race, le sexe, l’âge et les expressions du visage, près de la moitié étaient des criminels condamnés”. Les auteurs affirment que “Tous les quatre classificateurs effectuer constamment et de produire des éléments de preuve de la validité des automatisé visage induite par inférence sur la criminalité, en dépit de l’historique de la controverse sur le sujet”, ajoutant qu’ils ont trouvé “quelques discriminant caractéristiques structurelles pour prédire la criminalité, telles que la courbure de la lèvre, les yeux du coin interne de la distance et de la soi-disant du nez, de la bouche de l’angle.”
Cet article est sur l’arXiv pré-serveur d’impression et n’a pas été examinée par des pairs, mais, s’adressant à la BBC, Susan McVie, Professeur de Quantitative de la Criminologie à l’Université d’Edimbourg, a noté que “ce Que cette recherche peut se ramasser sur est les stéréotypes qui conduisent à des personnes, capté par le système de justice pénale, plutôt que de la probabilité de quelqu’un d’offenser…Il n’y a pas de raison théorique que la façon dont quelqu’un semble en faire un criminel.”
Tout piloté par intelligence artificielle résurgence de l’idée que la criminalité peut être déduite à partir des images faciales serait particulièrement inutile, étant donné le climat politique actuel sur les deux côtés de l’Atlantique.
IA mise en œuvre dans l’entreprise
L’IA est clairement un domaine en développement, mais cela n’a pas arrêté les organisations à aller de l’avant et de mettre en œuvre, même si elles sont souvent pas pleinement conscients qu’ils ont fait. En juillet de cette année, le Récit de la Science, qui se développe avancée en langage naturel génération (GNL), a présenté les résultats d’une enquête auprès de 235 cadres de l’entreprise couvrant le déploiement de l’IA applications alimentées au sein de leurs organisations. Titre des conclusions à partir d’Outlook sur l’Intelligence Artificielle dans l’Entreprise 2016 ont été:
AI adoption est imminente, malgré la confusion au sein du marché: bien que seulement 38 pour cent du groupe d’étude ont confirmé qu’ils ont été à l’aide de l’IA, de 88 pour cent du solde fait recours à l’IA des technologies telles que l’analyse prédictive, automatisée des rapports écrits et des communications, et de reconnaissance vocale/réponse.
L’analyse prédictive est dominant l’entreprise: 58% des répondants ont utilisé l’exploration de données, statistiques, modélisation et apprentissage de la machine à analyser les données de courant et de faire des prédictions; en second lieu, à environ 25 pour cent, a été automatisé des rapports écrits et/ou de communication et de reconnaissance vocale/réponse.
Le manque de données en sciences de talent continue d’affecter des organisations: 59% des répondants ont nommé ” pénurie de la science des données du talent comme le principal obstacle à la réalisation de la valeur de leurs technologies big data. Presque tous les répondants (95%) qui ont indiqué qu’ils ont été qualifiés à l’aide de big data pour résoudre les problèmes de l’entreprise ou de générer des idées aussi utilisé AI technologies.
Les entreprises qui génèrent le plus de valeur de leurs investissements en technologie de faire de l’innovation une priorité: 61% des répondants qui ont une stratégie d’innovation AI utilisé pour identifier les opportunités de données qui seraient autrement manqués, comparativement à seulement 22 pour cent des répondants sans une telle stratégie.
Il y a certainement plus d’entreprises impliquées dans l’IA que jamais, et aussi l’émergence de la technologie de la pile”, comme ce récent paysage infographie à partir de Bloomberg Bêta précise:
Image: Bloomberg Bêta
Dans leur analyse, Bloomberg Bêta du Shivon Zilis et James Cham noter que la version 3.0 paysage contient un tiers de plus de sociétés que la première, il y a deux ans, et qu’il “se sent encore plus vain d’essayer d’être complet, car ce qu’effleurer la surface de l’ensemble de l’activité là-bas.” Ce n’est à attendre dans un domaine de la technologie c’est la course à la pointe de la hype cycle, et il y aura beaucoup plus de startups et de l’activité M&A en tant que le marché arrive à maturité. Mais qui AI startups vont prospérer? Selon le Bloomberg Bêta auteurs, “les Entreprises nous voir réussir à entrer dans un long terme de la trajectoire en mesure de présenter leur technologie comme un nouveau problème spécifique à la demande de l’entreprise ou tout simplement transformer une industrie eux-mêmes comme un nouveau venu.”
Outlook
Dans le court terme, comment AI susceptibles d’évoluer?
“Il y aura de plus en plus de variantes de réseaux de neurones, et les gens vont payer plus d’attention à ce qui se passe réellement au cours du traitement,” dit Nuance de Nils Lenke. “Vous aurez envie de visualiser ce qui se passe sur les couches et comment ils s’engager avec les données, et de le rendre plus transparent, ce qui morceau de la preuve led de décision, de sorte que le réseau produit non seulement un résultat, mais aussi la preuve et le processus de raisonnement.”
Lenke souligne également que l’IA n’est pas toujours synonyme de réseaux de neurones: “Nous faisons aussi de l’IA en se basant sur la représentation de la connaissance et de la règle de base de systèmes, et pour certaines choses, il peut être préférable de suivre une règle basée sur les systèmes où vous êtes en plein contrôle, les règles sont là et qui ne sont pas là. Vous pouvez avoir dans votre boîte à outils pour les choses où il fait sens, où les règles peuvent facilement être codifiée par l’homme.”
L’IA est en train de devenir relativement simple à mettre en œuvre, avec des données, des algorithmes et à la programmation des ressources de plus en plus disponibles. Mais il y a toujours le facteur humain à considérer: les humains peuvent se poser les mauvaises questions, l’utilisation erronée de données d’apprentissage, et d’accepter de sortie à partir d’algorithmes sans se renseigner sur sa provenance.
Doit-on craindre superintelligent IA? Peut-être, en raison bien sûr. Mais fait plus préoccupant encore, nous devons prêter attention à ce que l’on peut faire aujourd’hui avec la technologie IA. Ou comme Bloomberg Bêta de Zilis et Cham: “Dans les prochaines années, le danger, ici, n’est-ce pas ce que nous voyons dans dystopique films de science-fiction. Le danger réel de l’intelligence de la machine, c’est que les dirigeants vont prendre de mauvaises décisions sur ce que l’intelligence de la machine capacités à construire.”