Google et Microsoft avertir les investisseurs que la mauvaise IA pourrait nuire à leur image de marque

0
159

Pour des entreprises comme Google et Microsoft, l’intelligence artificielle est une énorme partie de leur avenir, en offrant des moyens pour améliorer les produits existants et de créer de nouvelles sources de revenus. Mais, comme l’a révélé récemment par des documents financiers, les deux entreprises reconnaissent également que l’IA particulièrement biaisée de l’IA qui fait de mauvaises décisions sont susceptibles de nuire à leurs marques et les entreprises.

Ces divulgations, repéré par Câble, ont été réalisés dans les entreprises de 10 K formes. Ce sont normalisés de documents que les entreprises sont légalement tenues de déposer chaque année, donnant ainsi aux investisseurs un large aperçu de leur activité récente et les finances. Dans le segment intitulée “facteurs de risque”, à la fois Microsoft et l’Alphabet, Google est la société mère, amené AI pour la première fois.

À partir de l’Alphabet 10-K, déposé la semaine dernière:

“[N]ew produits et services, y compris ceux qui contiennent ou utilisent l’intelligence artificielle et l’apprentissage machine, soulèvent de nouvelles ou d’exacerber les éthiques, technologiques, juridiques et autres défis, ce qui peut nuire à nos marques et de la demande pour nos produits et services et de nuire à nos produits et résultats d’exploitation.”

Et à partir de Microsoft 10-K, déposé en août dernier:

“Des algorithmes d’IA peut être imparfaite. Ensembles de données peuvent être insuffisants ou contiennent des informations biaisées. Inapproprié ou controversée des données pratiques par Microsoft ou d’autres personnes pourraient nuire à l’acceptation de l’IA des solutions. Ces lacunes pourraient saper les décisions, les prédictions, ou l’analyse de l’IA applications produire, nous soumettant aux dommages à la concurrence, la responsabilité juridique, et de la marque ou de l’atteinte à la réputation. Certains IA scénarios de présenter les questions d’éthique. Si nous activer ou offrir de l’IA des solutions qui sont l’objet de controverses en raison de leur impact sur les droits de l’homme, la vie privée, de l’emploi, ou d’autres questions sociales, nous pouvons faire l’expérience de la marque ou à la réputation de mal.”

Ces informations ne sont pas, dans l’ensemble, très surprenant. L’idée de la “facteurs de risque” du segment est d’informer les investisseurs, mais aussi d’atténuer les futures poursuites judiciaires qui pourraient accuser de gestion de cacher les problèmes potentiels. En raison de cela, ils ont tendance à être extrêmement large dans le cadre de leurs attributions, couvrant même le moyen le plus évident d’une entreprise qui pourrait aller mal. Cela peut inclure des problèmes comme “quelqu’un a fait un meilleur produit que nous, et maintenant nous n’avons pas de clients”, et “nous avons dépensé tout notre argent alors maintenant, n’ont pas de”.

Mais, comme de Wired Tom Simonite points, c’est un peu bizarre que ces sociétés ne sont en notant AI comme un facteur potentiel maintenant. Après tout, les deux ont été le développement de l’IA produits depuis des années, à partir de Google self-driving la voiture de l’initiative, qui a débuté en 2009, Microsoft long de la non-relation sérieuse avec de la conversation des plates-formes comme Cortana. Cette technologie offre de nombreuses possibilités pour la marque des dommages, et, dans certains cas, a déjà. Rappelez-vous lorsque Microsoft de Tay chatbot allé direct sur Twitter et a commencé à jaillir raciste non-sens en moins d’une journée? Des années plus tard, il est encore régulièrement cité comme un exemple de l’IA est mal passé.

Cependant, vous pourrait aussi affirmer que la sensibilisation du public de l’intelligence artificielle et de ses éventuels effets négatifs, a considérablement évolué au cours de la dernière année. Des scandales comme Google est un secret de travailler avec le Pentagone dans le cadre du Projet Maven, Amazon est biaisée logiciel de reconnaissance faciale, et Facebook algorithmique du incompétence avec le Cambridge Analytica scandale ont tous apporté les problèmes de mal-mise en œuvre de l’IA dans le feu des projecteurs. (Il est intéressant de noter, en dépit même de l’exposition, ni Amazon, ni Facebook mention AI des risques dans leurs 10 derniers-Ks.)

Microsoft et Google sont en train de faire plus que de nombreuses entreprises se tenir au courant de ce danger. Microsoft, par exemple, fait valoir que le logiciel de reconnaissance faciale qui doit être réglementé afin de se prémunir contre d’éventuels inconvénients, alors que Google a commencé la lente entreprise de s’engager auprès des décideurs et des universitaires autour de l’IA de la gouvernance. En donnant aux investisseurs une tête trop semble tout à fait juste.