« 5000 consommateurs ont été interrogés sur l’impact de l’intelligence artificielle (IA) sur la morale, l’éthique et l’empathie à l’échelle internationale. » Conclusion : La majorité n’ont pas confiance en l’IA et ne comprennent pas dans quelle mesure celle-ci améliore la qualité des interactions. »
Ces chiffres sont les résultats d’une étude présentée à l’occasion de PegaWorld qui se déroule à Las Vegas. Celle-ci a été conduite par le cabinet Savanta pour le compte de Pegasystems Inc. (NASDAQ : PEGA), l’éditeur de logiciels expert en transformation digitale.
Comme mentionné ci-dessus, les consommateurs ne sont toujours pas convaincus par les avantages apportés par l’IA, et ce, en dépit du fait qu’elle réponde partiellement à leurs attentes en termes de personnalisation. C’est pourquoi, il est essentiel pour les entreprises, qui sont toujours plus nombreuses à se tourner vers l’IA, de bien comprendre la perception, les préoccupations et les préférences de leurs clients envers cette technologie afin d’obtenir leur adhésion.
« L’évolution de l’intelligence artificielle passera par l’adoption de directives intégrant les considérations éthiques au sein de machine learning. Ainsi, les décisions prises par les systèmes d’IA dans le cadre de l’engagement client intègreraient contextuellement l’éthique et seraient considérées comme tout aussi empathiques que celles prises par un individu. Ce n’est certes pas la panacée, mais en créant une culture de l’empathie dans l’entreprise, l’IA peut être utilisée comme un puissant outil de différenciation dans un environnement très concurrentiel. » a déclaré Rob Walker, Vice President, Decisioning and Analytics chez Pega.
Ci-après les conclusions de l’étude :
-
Entreprises et intérêts des consommateurs :
68 % des personnes interrogées estiment que les entreprises ont une obligation morale vis-à-vis de leurs clients qui va bien au-delà de ce que prescrit la loi. Pourtant, ils sont 65 % à penser que les entreprises ne privilégient pas leurs intérêts ! Pourquoi ? N’ont-ils pas confiance en la technologie utilisée au cours de leurs interactions ? Ces questions sont légitimes car malgré un environnement qui seprétend « orienté client », les consommateurs sont persuadés que leurs intérêts ne sont pas une priorité pour les entreprises et qu’elles manquent totalement d’empathie vis-à-vis de leurs besoins individuels.
-
IA et capital confiance :
Moins de la moitié (40 %) des clients interrogés reconnaissent que l’IA permet d’améliorer le service client, et moins d’un tiers (30 %) n’est pas réfractaire à l’idée d’interagir avec une machine. Mais seuls 9 % y sont totalement réceptifs. Parallèlement, un tiers des clients sondés se disent préoccupés par la perspective de voir leurs emplois disparaitre au profit des machines et plus d’un quart (27 %) déclare que « la prolifération des robots et l’asservissement de l’homme » est source d’inquiétude.
-
IA et prise de décision :
Plus de la moitié (53 %) des clients sondés estiment que les décisions prises par l’IA sont potentiellement biaisées. 53 % pensent également que les décisions automatisées resteront influencées par les idées et les préjugés de la personne qui a écrit le programme d’où son manque d’impartialité.
-
Interaction : machine ou être humain ?
70 % des personnes interrogées préfèrent s’adresser à un conseiller et 69 % déclarent se confier avec plus de sincérité à une personne plutôt qu’à un système d’IA, chatbot… Ce pourcentage passe à 86 % dès lors que l’on aborde des questions d’ordre vital. L’homme reste le contact d’interaction privilégié.
-
IA : Empathie et Sens Moral
Seuls 12 % des clients sondés pensent que l’IA est capable de distinguer entre le bien et le mal et plus de la moitié (56 %) estime qu’il est impossible de développer des machines dotées de « sens moral ». Ils sont 12 % à peine à déclarer avoir perçu de l’empathie chez une machine lors d’une interaction.
Rob Walker, Vice President, Decisioning and Analytics chez Pega a ajouté : « Notre étude révèle que seuls 25 % des clients sont prêts à faire confiance à un système d’IA, dans l’accompagnement de souscription à un emprunt. Ils se sentent plus à l’aise à entamer une discussion avec un conseiller et lui feront plus facilement confiance. Mais ce ne sont pas les seuls critères, ils pensent également être en mesure d’influencer sa décision, alors que ce n’est bien évidemment pas le cas. Aujourd’hui, les systèmes d’IA ne sont pas capables d’aider les entreprises à prendre des décisions basées sur le sens moral ou l’éthique. C’est là tout le problème. Pour reprendre l’exemple du prêt, outre le fait qu’une banque se doit de respecter les processus réglementaires avant de faire une offre, elle devrait aussi avoir la capacité de déterminer si sa décision est éthique et déterminer qu’elle est la meilleure option pour le client, indépendamment des intérêts financiers de la banque. »
Cette étude révèle ainsi que les clients accepteront de placer leur confiance en un système, des applications ou autre gérés par l’IA quand ces derniers auront la capacité de reproduire les interactions humaines y compris l’empathie. C’est pourquoi, il est primordial pour les entreprises de réfléchir à la façon dont elles vont intégrer le sens moral, l’éthique et l’empathie à leurs systèmes d’IA.
À noter
Pega a recueilli le point de vue de 5 000 personnes sur l’intelligence artificielle, le sens moral, le comportement éthique et l’empathie, parmi un panel de clients américains, britanniques, français, allemands et japonais.