in

Ethique et algorithmes : monde radieux ou dystopie ? Big Data Paris 2019 | par Valentine Levacque pour DOCaufutur

Le Big Data dans l’Union Européenne, c’est 16,4 milliards d’euros en 2020 dans l’industrie, 15,4 milliards dans la finance et 8,2 milliards dans le retail! Et d’ici 2020, le secteur aura besoin de 130 000 nouveaux collaborateurs. Alors, à l’occasion de Big Data Paris 2019, les 11 et 12 mars au Palais des Congrès de Paris, tous les acteurs qui souhaitent faire de leurs données un véritable levier de croissance étaient réunis.

Le secteur de la Data représente 40% des dossiers de R&D traités. IT, télécom, média, santé, biotech, industrie, énergie, cleantech… L’occasion idéale pour échanger sur un marché en pleine expansion. Retour sur les points forts du salon.

Quelle éthique et quel contrôle pour le Big Data et les algorithmes d’IA ?

« Est-il déjà trop tard pour se soucier d’une éthique des algorithmes ? » C’est en tous cas la question posée lors de la table ronde Profilage, Fake News et Fiabilité des algorithmes. Pour Christine Balagué, titulaire de la Chaire réseaux sociaux à l’Institut Mines Télécom, aujourd’hui on doit se poser la question du comment faire.

« Comment peut-on mesurer cette innovation responsable ? En effet, dans la majorité des grands groupes, des politiques RSE sont mises en place. Mais le numérique demeure le grand trou noir. On a besoin d’indicateurs !»

Aujourd’hui on sait concrètement comment mesurer l’équité dans un algorithme. Entre les phénomènes de biais et de discrimination, il parait urgent de faire la lumière sur l’obscurité des algorithmes. Spécialiste des nouvelles technologies, Christine Balagué appelle à chercher ce qu’il y a derrière la technologie.

Surtout qu’il y a des secteurs où l’innovation évolue extrêmement vite. Et les questions qui découlent des progrès posent des questions éthiques importantes. Le secteur de la santé en est l’exemple parfait. Jusqu’où peut-on aller dans l’usage de la technologie ? Quelle en est la limite ? Comment peut-on mettre des gardes-fous pour éviter les problèmes ?

« L’impact de l’IA a été prouvé dans le domaine de la santé, mais nous devons maintenant travailler sur les enjeux éthiques. Une IA responsable n’est pas un frein à l’innovation, bien au contraire. Nous devons construire des technologies en ayant toutes les conséquences – bonnes et mauvaises – en tête pour construire un système d’IA le plus robuste, le plus fiable et le plus reproductible possible » déclare Christine Balagué.

Un monde plein de fantasmes… à déconstruire

Beaucoup de fantasmes circulent lorsque l’on parle de l’IA. Le Dr. Cécile Wendling, directrice de la prospective chez AXA, nous parle du métier de l’assurance.

« Dans le monde de l’assurance, il est techniquement impossible d’avoir une assurance personnalisée à 100%. De toutes manières, il faut bien rappeler une chose : ce ne sont pas les assurances qui choisissent quelles sont les données qui peuvent être utilisées. Par exemple, pour une assurance automobile, il ne serait pas envisageable de prendre en compte le sexe de l’individu. ».

L’assurance a toujours été régulée au niveau national. Le régulateur joue un rôle primordial : il fixe les règles communes qui définissent un espace.

D’ailleurs, on remarque de nos jours une forte tendance de la part des entreprises à se fixer des règles, en plus de la législation. Chartes et labels fleurissent; certaines organisations cherchent à faire plus que le droit. « En fait, c’est une diplomatie de l’IA, du cyber et de la donnée dont nous avons aujourd’hui les premiers signaux faibles » analyse le Dr. Wendling, conseillère des organisations européennes et internationales sur l’inclusion de la prospective.

Faudrait-il nommer un chef éthique d’entreprise ?

Chaque entreprise a bien son CEO (Chief Executive Officer), son CPO (Chief Product Officer), son CTO (Chief Technology Officer), son CMO (Chief Marketing Officer), etc… alors pourquoi pas un Chief Ethics Officier ? Il serait en effet intéressant d’investiguer sur l’impact du numérique sur les comportements au sein de nos entreprises, de manière transverse. Ainsi selon les indicateurs choisis, le Chief Ethics Officer pourrait rendre compte d’une responsabilité numérique de l’entreprise.

« Les grands groupes doivent se structurer en interne. On sent une appétence de la part des entreprises pour plus de confidentialité des données. » nous confie Caroline Lair, Account Manager chez Snips, start-up française qui a lancé son assistant vocal « private by design ». Notre Président de la République avait d’ailleurs évoqué l’idée d’un GIEC de l’IA. Pourquoi ne pas imaginer un corps d’auditeurs d’algorithmes chargé de labelliser la responsabilité numérique ? Dans l’équipe du Chief Ethics Officier, on trouverait des Data Scientist formés aux Sciences Humaines, qui éclaireraient les pratiques avec des outils éthiques concrets pour éviter un système trop intrusif ou trop opaque.

Des datas, des hommes … et des femmes

Avez-vous remarqué que la majorité des voix des assistants vocaux étaient féminines ? Et avez-vous également noté que la majorité des entreprises de la Silicon Valley comptaient beaucoup d’hommes caucasiens de 30 ans ? Prenons garde aux opinions encapsulées dans l’algorithme. En effet, les algorithmes contiennent en eux les opinions de leurs créateurs, même si ce n’est pas forcément réfléchi.

Attention donc, il faut pouvoir mesurer ces effets. C’est en partie pour cela que Caroline Lair a co-créé Women in AI, une association pour inciter les femmes à rejoindre le secteur de l’IA.

« Les femmes doivent être présentes dans ces domaines où elles sont aujourd’hui sous-représentées. Women in AI compte près de 400 membres, notre mission est de promouvoir la place et le rôle de la femme dans cette industrie. L’IA a pour vocation d’apprendre aux machines à reproduire nos comportements ; or demain, on va retrouver de l’IA partout dans notre vie. Il est indispensable que les femmes soient présentes à la conception de l’IA pour nourrir les algorithmes au-delà des biais cognitifs ».

L’IA est alors vue comme une opportunité unique pour que l’humanité corrige ses biais, pour faire changer les choses et évoluer le sort de tout un chacun.

Un lieu de rencontres et d’échanges

Les deux jours de Big Data Paris 2019 ont permis l’émergence d’un lieu d’échanges et de rencontres. Entre ateliers, tables rondes et keynotes, l’occasion de discuter et de réfléchir aux implications de la data, de l’IA et des algorithmes. On espère, vers plus de bonnes pratiques et surtout, vers plus d’éthique.

Written by Valentine

Arrivée sur terre il y a quelques lustres, Valentine entre aujourd’hui dans le métier de la communication.
C’est non sans intrépidité qu’elle a intégré la Sorbonne en philosophie après une classe préparatoire littéraire (A/L). Après un mémoire sur la place de l’éthique dans la société actuelle à partir d’Aristote, Valentine poursuit son cursus en éthique appliquée.
Autrement dit elle s’intéresse aux actions des entreprises et des institutions publiques, proposant alors des solutions de conseil afin d’accompagner leurs prises de décision. Au coeur de l’économie numérique, les rouages de la communication autour de l’innovation la passionnent.
C’est pour cela que Valentine a rejoint l’équipe de Tikibuzz, une agence de communication et de marketing, en 2018.
Aujourd’hui, elle a le plaisir de s’aventurer sur le terrain de l’éditique et de la gestion de la communication client, afin de vous proposer chers lecteurs, des reportages et des témoignages pour votre média DOCaufutur.