La peur n’est pas profonde faux: OpenAI de la machine de l’écrit comme stupidement comme un chatbot parle

0
128

Si vous êtes la lecture de ces mots, rassurez-vous, ils ont été écrit par un être humain. Si elles constituent l’intelligence, c’est pour vous dire.

L’âge de l’écriture par une machine qui peut passer de rassemblement avec les lecteurs humains n’est pas tout à fait sur nous, au moins, pas si on lit attentivement.

Les scientifiques de l’à but non lucratif OpenAI cette semaine a publié un modèle de réseau de neurones qui non seulement mange des tonnes de l’homme de l’écriture — 40 giga-octets de valeur de Web-gratté données, il découvre aussi ce genre de tâche qu’il doit effectuer, de répondre à des questions à l’écriture d’essais à effectuer la traduction, sans être explicitement dit de le faire, ce qui est connu comme le “zéro-shot” de l’apprentissage de tâches.

Les débuts de déclencher un essaim de titres nouveaux et des formes dangereuses de “profondeur de faux.” La réalité est que ces faux, tout en impressionnant, devrait facilement céder à l’homme de discernement.

La singulière idée de la OpenAI de l’équipe, et c’est vraiment fascinant de la percée, c’est que la probabilité de prédire le mot suivant dans une phrase peut être étendue à prédire le moment de l’énonciation, le sens, l’objectif d’une tâche.

Aussi: Pourquoi chatbots encore nous laisser indifférents

openai-gpt-2-graphic-feb-2019.png

Graphique de OpenAI du GPT-2 rapport.

OpenAI

Comme ils l’écrivent, “la Langue fournit une manière souple afin de préciser les tâches, les entrées et sorties de tous comme une séquence de symboles.” Qui mène à l’apprentissage non supervisé par la machine, où aucun objectif explicite doit être défini pour le train.

Le projet, par des chercheurs de l’Alec Radford, Jeffrey Wu, Rewon Enfant, David Luan, Dario Amodei, Ilya Sutskever, a été le coup de feu entendu autour du monde sur la saint-Valentin, et la presse sont allés à la ville avec elle.

“Cette IA est Trop Puissant pour la diffusion au Public” était le titre par PC Mag, assez représentatif du ton dans les dernières 24 heures.

Ce n’était pas simplement la percée des résultats d’essai de la nouvelle neural net, surnommé “GPT-2”, qui défrayent la chronique. Encore plus frappant pour beaucoup a été la décision prise par Radford et ses collègues de ne pas divulguer les détails de leur modèle de réseau, ou de libérer le code, de peur que cela pourrait être utilisé à des fins malveillantes.

Comme les auteurs l’ont expliqué dans un billet de blog jeudi, en plus de beaucoup de bons usages de la technologie qui sont imaginables, “On peut aussi imaginer l’application de ces modèles à des fins malveillantes,” y compris “génération trompeuse articles de presse.”

L’ajout de carburant pour les choses est le fait que OpenAI est soutenu, entre autres, PDG de Tesla Elon Musk.

Aussi: Facebook ouvrir les sources de la tour de Babel, en Klingon pas pris en charge

Comme Marrian Zhou avec ZDNet site de soeur, CNet, a écrit, “Musc adossés à des IA de groupe: Notre générateur de texte est tellement bon qu’il est effrayant.” Ed Baig des etats-unis aujourd’Hui, “Trop effrayant? Elon Musk est OpenAI société ne sera pas communiqué tech qui peut générer de fausses nouvelles”.

Il aide le grand désarroi que le travail a été réalisé avec la participation de Ilya Sutskever, qui a tant contribué à faire avancer l’art du traitement du langage naturel. Il a contribué à la création d’approches utilisées à grande échelle pour “intégrer” les mots et groupes de mots dans l’ordinateur de représentation, y compris “word2vec” et “seq2sec.”

Bien que le code n’est pas publié, certains journalistes ont été une démonstration de la technologie de cette semaine et semble globalement impressionné. Vox, Kelsey Piper utilisé l’outil pour terminer l’article, elle a commencé sur GPT-2. Étant donné qu’une seule phrase sur GPT-2, la machine pointillée à partir de plusieurs paragraphes en harmonie avec le thème, d’où, peut-être convaincre un article à un coup d’œil en passant.

Les résultats examinés dans le cadre de papier, “les Modèles de Langue sont sans surveillance Multitâche Apprenants,” montrent que le système a bien performé dans plusieurs tests de référence, battant le précédent de l’état-of-the-art traitement de la langue naturelle des modèles.

Mais n’ayez pas peur, beaucoup de la sortie de GPT-2 ne tient pas en vertu d’un examen minutieux.

Aussi: Nvidia fabuleux faux déballage de la boîte noire de l’IA

Les exemples fournis par OpenAI montrent un manque de cohérence logique. En outre, certains trop familière des artefacts de sortie de l’ordinateur, tels que la duplication de termes, apparaissent dans de nombreux exemples.

Le sens global des textes n’est pas sans rappeler le sentiment de la plupart des avancées de chat bots, où l’on a une expérience de quelque chose de moins-que-intelligent au travail.

openai-gpt-2-blog-essay-feb-2019.png

Mode Original blog post par Ethan M. Wong de la Rue x Sprezza, là-haut, et les deux réponses ci-dessous, produite par les TPG, réseau neuronal, sur la gauche, et le nouveau modèle, GPT-2, sur la droite.

OpenAI.

Les meilleurs exemples OpenAI produits sont des faux reportages, où la forme de genre, qui est déjà assez décousu, lisse le manque de logique. C’est un peu comme ce que Stephen Colbert, une fois inventé comme “truthiness.”

Deux fausses nouvelles pièces, l’une sur le vol de matières nucléaires, et un sujet de Miley Cyrus être pris le vol à l’étalage, de façon convaincante, ape typiques sac de faits contenus dans le fil de presse de la copie.

Le meilleur exemple est fourni par un fictifs compte de news au sujet de licornes d’être découvert dans les Andes. Les neuf paragraphes de la pièce sont d’une lecture convaincante qui sent la norme journalistique juste. C’est un peu dur de juger, cependant, car elle n’a aucun fondement dans aucune logique scientifique sur des processus ou des faits de la région des Andes (ni les faits au sujet de licornes).

Aussi: la Chine IA scientifiques enseigner à un réseau neuronal à former lui-même

Lorsque GPT-2 se déplace à s’attaquer à la rédaction qui exige plus de développement de la réflexion et de la logique, les fissures se casser assez large. Un exemple de dissertation sur la guerre de sécession AMÉRICAINE, simplement motivées par une simple phrase, “aujourd’hui, Pour les devoirs de travaux, veuillez décrire les raisons de la Guerre Civile américaine, les” formes comme quelque chose qui pourrait bien être présenté dans une classe. Mais c’est un pêle-mêle de décousu et novices petits faits et les opinions. Certaines études secondaires des essais sont juste que beaucoup de désordre, mais ils seraient abattus comme du charabia de toute façon.

Les exemples figurant dans la recherche formelle papier montrent les mêmes faiblesses. Un court morceau prend comme données d’entrée de l’homme-écrit les paragraphes d’un blog de mode post par Ethan M. Wong de la Rue x Sprezza à partir de 2016. La machine procède à bollux toutes les références dans un immense gâchis.

Doit lire

‘IA est très, très stupide”, explique Google IA leader (CNET)Comment obtenir tous Google Assistant de nouvelles voix (CNET)Unifiée Google IA division d’un signal clair de l’IA de l’avenir (TechRepublic)Top 5: les Choses à savoir à propos de l’IA (TechRepublic)

Dans un autre exemple, la machine est alimentée certains humains écrit le texte sur les attractions touristiques en Espagne. La machine procède à générer des beaux-anglais des phrases sur l’histoire de l’Espagne Mauresque, mais l’information n’est pas de cohérence interne. La “Reconquista” de l’Espagne est d’abord décrite comme l’établissement d’une dynastie Musulmane en Espagne, puis par la suite que la fin de la domination Musulmane. Cette machine historien, en d’autres termes, parcourt toute la place sans discipline.

Aucune, cependant, devrait diminuer ce qui semble une importante réalisation pour le OpenAI de l’équipe. Non seulement, ils ont formé une machine à produire parfaitement valide séquences de mots en s’appuyant sur des exemples humains, sans que les éventuelles étiquettes apposées sur ces exemples; ils ont également montré que l’ordinateur peut deviner la tâche tout simplement le déduire à partir du texte lui-même.

Les auteurs résument avec l’observation que, malgré quelques belles réalisations sur des points de référence, il reste beaucoup de travail à faire.

“Il y a sans doute de nombreuses tâches pratiques où le rendement de GPT-2 est toujours pas mieux qu’au hasard,” ils écrivent. “Même sur les tâches courantes que nous avons évalué, par exemple, la réponse aux questions et de traduction, la langue uniquement pour les modèles commencent à se surpasser trivial lignes de base quand ils ont une capacité suffisante.”

Précédente et de la couverture liée:

Qu’est-ce que l’IA? Tout ce que vous devez savoir

Un exécutif guide de l’intelligence artificielle, de l’apprentissage machine et général de l’IA pour les réseaux de neurones.

Qu’est-ce que l’apprentissage en profondeur? Tout ce que vous devez savoir

La vérité sur l’apprentissage en profondeur: de comment il s’inscrit dans le champ plus large de l’apprentissage de la machine grâce à la façon d’obtenir commencé.

Qu’est-ce que l’apprentissage de la machine? Tout ce que vous devez savoir

Ce guide explique ce qu’est l’apprentissage de la machine est, comment elle est liée à l’intelligence artificielle, comment il fonctionne et pourquoi c’est important.

Qu’est-ce que le cloud computing? Tout ce que vous devez savoir à propos de

Une introduction à l’informatique en nuage à droite de la base jusqu’à l’IaaS et PaaS, hybride, public et cloud privé.

Articles connexes:

Google IA surfe sur la “gamescape” à la conquête de la théorie des jeux
C’est ce que l’IA ressemble (comme esquissé par l’IA)
Google DeepMind des équipes avec de grands 3D jeu de plate-forme de dev
DeepMind AI spots les premiers signes de la maladie de l’œil

Rubriques Connexes:

Big Data Analytics

Transformation Numérique

CXO

L’Internet des objets

L’Innovation

Des Logiciels D’Entreprise