À PROPOS
Les systèmes d’intelligence artificielle sont aujourd’hui au cœur d'une révolution technologique qui modifie profondément notre manière de vivre, de travailler et d'interagir avec le monde.
Cette méta-technologie n’est pas neutre, elle est profondément enracinée dans des systèmes sociaux et politiques dans une approche data-centrée qui interpelle sur ses impacts en termes de concentration du pouvoir, d’inégalités croissantes, de durabilité et de responsabilité des employeurs dans la gestion des relations de travail.
La vraie question n’est peut-être pas de savoir si l’intelligence artificielle (en mode Shadow ou pas) est une opportunité ou un désastre, mais plutôt de savoir sur quoi elle repose, sur la nature de sa fixation et de notre volonté/ capacité à la contrôler pour un usage éthique, durable et sûr.
Nous avons un droit à l’explication et à la reddition de comptes pour réduire l’asymétrie informationnelle entre les acteurs de l’IA, les citoyens et les institutions démocratiques de contrôle. Il nous faut aller à la rencontre de la pratique (DPO, DSI, RSSI, Chercheurs, Directions métiers, Avocats) pour tisser des liens précieux, comprendre la logique algorithmique et les mécanismes de prise de décisions et s’inscrire dans un apprentissage continu et créatif.
Pourquoi ne pas s’inspirer de la pensée systémique de Peter Senge et sa compréhension fine des interconnexions entre innovation et sécurité ? Il s’agit de développer notre capacité à nous adapter avec de nouvelles façons de penser et d’agir : remplacer l’autorité et le contrôle par l’engagement de nos collaborateurs et le développement de l’apprentissage à tous les niveaux.
C’est pourquoi l’association DataRing a créé son propre laboratoire, « Le Lab IA », dirigé par France Charruyer, et composé d’acteurs engagés et reconnus dans les milieux académique et professionnel.
Ensemble, nous accompagnons les organisations publiques et privées ainsi que leurs collaborateurs dans l’adoption de pratiques raisonnées pour prévenir les risques liés aux systèmes d’IA tout en bénéficiant des opportunités qu’ils procurent (ateliers de sensibilisation, aide à la constitution de comités d’éthique, accompagnement dans les cas d’usage, rédaction de communs juridiques, etc.).