Le système, qui a été dévoilé en juillet dernier et décrit dans un article de blog sur LinkedIn mercredi, marque une avancée majeure pour permettre à l’intelligence artificielle de “présenter son travail” de manière utile. Alors que les scientifiques de l’intelligence artificielle n’ont aucun problème à concevoir des systèmes qui font des prédictions précises pour tout type de résultats commerciaux, ils constatent que pour rendre ces outils plus efficaces pour les opérateurs humains, l’intelligence artificielle peut avoir besoin d’expliquer par un autre algorithme. Le domaine émergent de l’IA explicable, ou XAI, a suscité des investissements majeurs dans la Silicon Valley, où les start-ups et les géants du cloud computing luttent pour rendre les logiciels opaques plus compréhensibles, et a suscité des discussions à Washington et à Bruxelles où les régulateurs veulent que les décisions d’automatisation soient prises. de manière juste et transparente. La technologie de l’IA peut perpétuer des préjugés sociaux tels que ceux liés à la race, au sexe et à la culture. Certains scientifiques de l’intelligence artificielle considèrent les explications comme un élément essentiel pour atténuer ces résultats problématiques. Les régulateurs américains de la protection des consommateurs, y compris la Federal Trade Commission, ont averti au cours des deux dernières années que l’intelligence artificielle inexpliquée pourrait faire l’objet d’une enquête. L’UE pourrait adopter la loi sur l’intelligence artificielle l’année prochaine, un ensemble complet d’exigences, notamment que les utilisateurs puissent interpréter les prévisions automatisées. Les partisans de l’IA explicable affirment qu’elle a contribué à accroître l’efficacité des applications d’IA dans des domaines tels que la santé et la vente au détail. Google Cloud vend des services d’intelligence artificielle qui, par exemple, indiquent aux clients qui tentent d’affiner leurs systèmes quels pixels et bientôt quels exemples de formation étaient les plus importants pour prédire le sujet d’une photo. Mais les critiques disent que les explications pour lesquelles l’intelligence artificielle a prédit ce qu’elle a fait sont très peu fiables car la technologie de l’IA pour interpréter les machines n’est pas assez bonne. LinkedIn et d’autres développeurs d’intelligence artificielle explicable reconnaissent que chaque étape du processus – prédiction des analyses, création d’explications, vérification de l’exactitude et habilitation des utilisateurs – peut encore être améliorée. Mais après deux ans d’essais et d’erreurs dans une application à enjeux relativement faibles, LinkedIn affirme que sa technologie a offert une valeur pratique. Preuve en est l’augmentation de 8% des réservations de renouvellement de l’année en cours par rapport à la croissance normalement attendue. LinkedIn a refusé de préciser le bénéfice en dollars, mais l’a décrit comme significatif. Auparavant, les vendeurs de LinkedIn s’appuyaient sur leur propre intuition et sur certaines notifications d’adoption automatisées ad hoc des clients. Désormais, l’IA s’occupe rapidement de la recherche et de l’analyse. Nommé CrystalCandle par LinkedIn, il indique des tendances inaperçues et son raisonnement aide les vendeurs à améliorer leurs tactiques pour garder les clients à risque et proposer des mises à niveau aux autres. LinkedIn indique que les recommandations basées sur des explications ont été étendues à plus de 5 000 commerciaux, couvrant les accords de recrutement, de publicité, de marketing et de formation. “Aidez les vendeurs expérimentés à les doter de connaissances spécifiques pour naviguer dans les conversations avec des clients potentiels. Cela aide également les nouveaux vendeurs à démarrer immédiatement”, a déclaré Parvez Ahammad, directeur de l’apprentissage automatique et responsable du marketing. recherche appliquée en science des données sur LinkedIn. EXPLIQUER OU NE PAS EXPLIQUER ? En 2020, LinkedIn a pour la première fois fourni des prévisions imprévisibles. Un score d’environ 80 % de précision indique la probabilité qu’un client sur le point d’être rafraîchi change de vitesse, reste stable ou annule. Les vendeurs n’étaient pas complètement rentables. L’équipe qui a vendu le logiciel de recrutement et d’embauche Talent Solutions de LinkedIn ne savait pas comment ajuster sa stratégie, surtout lorsque les chances qu’un client ne renouvelle pas son contrat n’étaient pas meilleures que de laisser tomber une pièce. En juillet dernier, ils ont commencé à voir un court paragraphe qui a été créé automatiquement et met en évidence les facteurs qui affectent la note. Par exemple, l’intelligence artificielle a décidé qu’un client était susceptible de changer de vitesse car il avait augmenté de 240 employés l’année dernière et que les candidats étaient devenus 146 % plus réactifs le mois dernier. . De plus, un indicateur qui mesure le succès global d’un client avec les outils de recrutement de LinkedIn a augmenté de 25 % au cours des trois derniers mois. Lekha Doshi, vice-président des opérations mondiales chez LinkedIn, a déclaré que sur la base des explications, les représentants commerciaux orientent désormais les clients vers la formation, le support et les services qui améliorent leur expérience et les maintiennent en activité. Mais certains experts en intelligence artificielle se demandent si des explications sont nécessaires. Ils pourraient même faire du mal en instillant un faux sentiment de sécurité dans l’intelligence artificielle ou en faisant des sacrifices de conception qui rendent les prédictions moins précises, selon les chercheurs. Fei-Fei Li, codirecteur de l’Institut d’intelligence artificielle centrée sur l’homme de l’Université de Stanford, a déclaré que les gens utilisent des produits comme Tylenol et Google Maps dont la fonction interne n’est pas entièrement comprise. Dans de tels cas, des contrôles et une surveillance stricts ont dissipé la plupart des doutes quant à leur efficacité. De même, les systèmes d’intelligence artificielle dans leur ensemble pourraient être considérés comme équitables même si les décisions individuelles sont impénétrables, a déclaré Daniel Roy, professeur agrégé de statistiques à l’Université de Toronto. LinkedIn soutient que l’intégrité d’un algorithme ne peut être évaluée sans comprendre son raisonnement. Il affirme également que des outils comme CrystalCandle pourraient aider les utilisateurs d’IA dans d’autres domaines. Les médecins pourraient découvrir pourquoi l’intelligence artificielle prédit qu’une personne est plus à risque de tomber malade ou les gens pourraient découvrir pourquoi l’intelligence artificielle leur a conseillé de se voir refuser une carte de crédit. L’espoir est que les explications révèlent si un système s’aligne sur les concepts et les valeurs que l’on veut promouvoir, a déclaré Been Kim, chercheur chez Google AI. “Je vois l’interprétation comme permettant finalement une conversation entre les machines et les humains”, a-t-il déclaré.