Série de podcasts sur l'IA

Bienvenue dans notre mini-série sur la gouvernance de l'IA, présentée par Thomas Douglas, Global ICT Industry Manager chez DNV.

Selon une récente enquête ViewPoint menée par DNV, 70 % des entreprises commencent tout juste leur parcours en matière d'IA. L'IA évoluant rapidement, une gouvernance précoce est cruciale.

Dans cette mini-série, Thomas discute de l'importance de comprendre les risques et les avantages de l'IA, de combler le déficit de confiance dans l'IA et de mettre en œuvre une gouvernance efficace de l'IA. Il souligne le rôle de la certification ISO et propose des mesures pratiques, notamment un guide en huit étapes et des ressources de formation.

Lire la transcription de notre série de podcasts

Bonjour et bienvenue à Navigating AI Assurance de DNV, un organisme de certification et prestataire de formation indépendant de premier plan au niveau mondial.

Je m'appelle Thomas Douglas, Global ICT Industry Manager chez DNV. Au cours des trois prochains épisodes, je vous guiderai à travers certaines des considérations clés pour les entreprises qui se lancent dans l'aventure de l'IA et je vous montrerai comment la gouvernance de l'IA peut vous mettre sur la voie d'une utilisation sûre, fiable et éthique de cette technologie.

Ainsi, comme cela a été dit à maintes reprises, on ne s'ennuie jamais avec l'IA. C'est toujours un sujet de conversation d'une manière ou d'une autre, et tout le monde est en quelque sorte sur le chemin de l'IA, ou envisage certainement sérieusement de s'y engager.

Nous commençons par comprendre les risques et les avantages de l'IA. Selon une récente enquête d'opinion menée par DNV, 58 % des entreprises n'ont pas encore mis en œuvre la technologie de l'IA, tandis que 70 % commencent à s'y intéresser. Il est donc important de clarifier les points à surveiller, alors que l'IA continue en effet à changer et à évoluer à un rythme rapide.

Chaque nouvelle technologie comporte des risques et il y a toujours deux côtés à la médaille. Il y a donc les avantages, mais aussi les risques. Et il est extrêmement important pour nous, en tant qu'individus et en tant qu'organisations, de comprendre ces deux aspects : les limites, ce qui peut mal tourner et comment nous pouvons tirer profit de l'IA, et quels types de choses doivent être mises en place pour nous permettre de bénéficier en toute sécurité de l'utilisation de l'IA.

Donc, si nous commençons par examiner certains des avantages de l'IA, je pense bien sûr en premier lieu à l'efficacité et à la productivité. Nous savons que l'IA peut automatiser les tâches répétitives et nous permettre de consacrer plus de temps à des tâches plus stimulantes ou créatives, ce qui peut à son tour entraîner une augmentation de la productivité dans divers secteurs ou activités quotidiennes. Ainsi, l'IA peut stimuler l'innovation dans différents domaines tels que les transports, la santé ou la finance.

Pour donner un exemple pratique, les algorithmes d'IA peuvent analyser des données médicales pour améliorer les diagnostics et les différents plans de traitement.

Enfin, nous pourrions également parler de l'analyse des données, car l'IA peut traiter et analyser de très grandes quantités de données très rapidement et nous fournir des informations en temps réel qui peuvent, en fin de compte, nous permettre de prendre de meilleures décisions et d'améliorer la planification stratégique.

Examinons maintenant certains des risques de l'IA.

Tout d'abord, le manque de transparence. Il peut donc y avoir un manque de transparence dans les systèmes d'IA, en particulier lorsque l'on examine les modèles d'apprentissage profond qui peuvent parfois être complexes à interpréter.

Cela peut parfois affecter le processus de prise de décision, ainsi que la compréhension de la logique de ces technologies. Et lorsque les gens ne sont pas capables de comprendre comment un système d'IA parvient à ses conclusions, cela peut en fait conduire à une certaine méfiance de la part des consommateurs et à une réticence à adopter ces technologies.

Préoccupations en matière de protection de la vie privée : l'utilisation de l'IA dans la collecte et l'analyse de données peut entraîner un certain nombre de violations de la vie privée si, bien sûr, elle n'est pas correctement réglementée.

Menaces pour la sécurité : l'IA peut être utilisée à bon escient, mais elle peut aussi être utilisée à mauvais escient. Elle peut être utilisée à des fins malveillantes dans la création de deepfakes, ou pour automatiser des cyberattaques.

Et puis, bien sûr, il y a la question de l'utilisation éthique de l'IA. Donc, en inculquant des valeurs morales et éthiques aux systèmes d'IA, en particulier ceux qui ont un contexte de prise de décision avec des conséquences potentiellement assez importantes. Cela peut présenter un certain défi, des biais et de la discrimination. Ainsi, les systèmes d'IA peuvent parfois amplifier certains biais existants s'ils sont entraînés sur des données biaisées.

Il s'agit donc de trouver un équilibre entre les risques et les avantages.

Super. Donc, l'IA est là. Nous savons que nous pouvons l'exploiter pour le meilleur. Mais maintenant ? Comme nous l'avons dit, les organisations souhaitent mettre rapidement en œuvre l'IA afin d'innover, de rationaliser certains processus, voire de l'intégrer dans certains de leurs produits ou services. Et bien sûr, il y a cette question de la ferveur de l'industrie. Ne pas vouloir prendre de retard sur nos pairs et concurrents. Les entreprises essaient donc de déterminer quelle est leur stratégie en matière d'IA, par où et par où commencer. Et l'un des grands sujets lorsqu'on est confronté à cet énorme sujet qu'est l'IA, est celui de la gouvernance de l'IA.

Ainsi, pour maximiser les avantages de l'IA tout en atténuant les risques, il est vraiment essentiel pour nous de mettre en œuvre des cadres de gouvernance solides, d'assurer la transparence et l'équité des systèmes d'IA et, bien sûr, de promouvoir l'apprentissage continu.

Et c'est dans le cadre de cette question de gouvernance que la norme ISO 42001 récemment publiée pour le système de management de l'IA entre en jeu comme un élément qui peut être utilisé à bon escient. Il s'agit donc d'un modèle pour concevoir et intégrer la gouvernance de l'IA au sein de votre organisation. Elle fournit un guide assez agréable et adaptable pour une organisation qui envisage de mettre en œuvre l'IA ou qui utilise l'IA, qui développe l'IA, et qui incite en quelque sorte une organisation à réfléchir avant de se lancer dans l'aventure de l'IA.

Donc, en ce qui concerne les politiques, les responsabilités et, bien sûr, la gouvernance de l'IA au sein de votre organisation. C'est donc très important de ce point de vue.

Cette norme est donc idéale car elle vous donne des conseils et un plan d'action sur la manière d'aborder ce sujet. Quels sont donc les types de cas d'utilisation de l'IA auxquels vous pensez dans votre organisation et auxquels vous réfléchissez vraiment avant d'agir ? Par exemple, en tant qu'organisation, sommes-nous sur la bonne voie avec l'IA, qui n'est pas vraiment judicieuse du point de vue de l'impact potentiel et des risques ? Et quels sont les principaux éléments à prendre en compte si nous décidons de nous engager dans cette voie avec l'IA ?

Je qualifierais donc cette norme de véritable première étape et de référence. Comme je l'ai dit, la gouvernance de tout cela, les différents processus, politiques, objectifs et personnes nécessaires pour gérer un programme d'IA où nous pouvons maximiser tous les avantages et éviter les risques liés à l'utilisation d'outils aussi puissants.

Si vous souhaitez en savoir plus sur ce qu'est un système de management de l'IA et comment en tirer profit, rendez-vous sur Système de Management de l'Intelligence Artificielle : qu'est-ce que c'est | DNV. Sur cette page, vous trouverez également un lien vers notre dernière enquête Viewpoint, qui examine comment les entreprises abordent l'IA et où elles en sont dans leur parcours.

Merci d'avoir écouté l'épisode d'aujourd'hui de Navigating AI Assurance de DNV sur les risques et les avantages de l'IA. Rejoignez-moi la prochaine fois pour découvrir comment combler le déficit de confiance dans l'IA.

Bonjour. Bienvenue dans ce nouvel épisode de Navigating AI Assurance, une émission de DNV, organisme de certification et prestataire de formation indépendant de premier plan à l'échelle mondiale.

Je m'appelle Thomas Douglas, Global ICT Industry Manager chez DNV.
Dans le dernier épisode, nous avons examiné les risques et les avantages de l'IA pour les entreprises qui se lancent dans l'aventure de l'IA. Aujourd'hui, nous allons voir comment les entreprises peuvent combler le déficit de confiance dans l'IA afin de surmonter les préoccupations en matière de sécurité et d'éthique.

Oui. Il existe en effet un certain déficit de confiance dans l'IA. Et en substance, cela renvoie à ce dont nous avons discuté dans le précédent épisode concernant les différents risques et avantages de l'IA. Il y a donc beaucoup de ce que l'on pourrait appeler la FUD (fear, uncertainty and doubt, ou peur, incertitude et doute) comme cela a été le cas avec la plupart des nouvelles technologies dans le passé. Cela est dû en grande partie aux risques très réels qui existent, et au fait que la vitesse de l'innovation et ce qui est possible avec l'IA évoluent pratiquement tous les jours. La question est donc de savoir comment exploiter cela.

Il y a donc plusieurs raisons pour lesquelles les personnes et les organisations peuvent manquer de confiance dans la sécurité, la fiabilité et l'éthique de l'IA. 

Certaines d'entre elles sont la désinformation et la mésinformation, de sorte que l'IA peut être utilisée pour créer et diffuser de fausses informations, qui, vous le savez, peuvent souvent être nuisibles et trompeuses. Il y a, bien sûr, les préoccupations en matière de sûreté et de sécurité. Vous savez, ces systèmes peuvent être vulnérables au piratage ainsi qu'à d'autres menaces de sécurité. Et cela peut avoir de graves conséquences, ce que nous appelons le problème de la boîte noire. Ainsi, de nombreux systèmes d'IA ont tendance à fonctionner d'une manière qui n'est pas totalement transparente ou compréhensible pour nous. Il est donc parfois difficile de faire confiance aux décisions que l'IA prend pour nous.

Et les préoccupations éthiques : il existe de nombreuses questions éthiques liées à l'IA, telles que, vous savez, les biais dans la prise de décision, les violations de la vie privée. Et vous savez, le potentiel qui existe pour l'IA de nuire aux individus ou à la société.

En fin de compte, cependant, l'IA apporte effectivement de nouveaux défis et risques, mais ceux-ci peuvent être relevés par une innovation responsable, la mise en œuvre de mesures de sécurité et de garde-fous. L'IA n'est donc pas vraiment quelque chose que nous devrions craindre, mais plutôt quelque chose que nous devrions essayer de comprendre, d'adopter, pour tout le bien qu'elle peut apporter en tant qu'outil et partenaire.

Faire confiance à la technologie implique donc souvent de comprendre son fonctionnement et d'être ensuite capable d'évaluer sa fiabilité et, bien sûr, sa sécurité. Pour que nous puissions faire confiance à l'IA, elle doit donc être digne de confiance. Les questions clés relatives à la transparence doivent donc être traitées parallèlement à celles de savoir si elle est mise en œuvre de manière responsable et éthique. Et lorsqu'il est généralement nécessaire d'instaurer la confiance du public sur un sujet, les normes jouent un rôle central, car elles favorisent la confiance en fournissant des cadres fiables pour la cohérence, la qualité et la sécurité. Et bien souvent, les normes fournissent un vocabulaire de base, une normalisation menée par l'industrie et des meilleures pratiques documentées pour l'analyse comparative et l'évaluation, tout en apportant une certaine clarté et une certaine responsabilité.

Les normes vont donc jouer un rôle central pour nous permettre de combler le fossé avec une technologie telle que l'IA, car les nouvelles technologies ont besoin de normalisation pour se développer.

Ainsi, les normes ciblant le management de l'IA, telles que la norme ISO 42001, contribueront à façonner la gouvernance ainsi que le déploiement responsable de l'IA, à répondre à certaines des attentes croissantes de la société en matière de sécurité et de confiance, et à offrir une base pour la conformité réglementaire.

Et, en fin de compte, ce que nous voulons tous, accélérer la capacité à exploiter le potentiel mondial de l'IA de manière sûre et éthique. Bien sûr, en garantissant toujours la transparence, la confiance et la sécurité envers les parties prenantes.

Il existe en effet une certaine pression pour montrer l'assurance dans ce domaine.

Ainsi, très récemment, dans le cadre de son programme d'assurance de la sécurité et de la confidentialité des fournisseurs, Microsoft a récemment imposé la norme ISO 42001 à certains fournisseurs dont la prestation de services implique l'utilisation de systèmes d'IA sensibles. C'est là que nous voyons vraiment que le besoin de confiance est important.

Les organisations ont donc besoin de savoir et de pouvoir vous interroger en tant que fournisseur pour comprendre comment vous abordez l'IA. Est-ce sûr ? Est-ce sécurisé ? Est-ce digne de confiance ? Et ce faisant, cela contribuera en fin de compte à un écosystème plus sûr et plus sécurisé pour l'IA.

Si vous souhaitez en savoir plus sur la manière dont la certification ISO peut aider votre entreprise à combler le déficit de confiance dans l'IA, rendez-vous sur www.dnv.com/ai-management, où vous trouverez des articles détaillés ainsi que nos ressources en matière de certification et de formation. Sur cette page, vous trouverez également un lien vers notre outil d'auto-évaluation en ligne, que vous pouvez utiliser pour obtenir une compréhension approfondie de l'état de préparation de votre organisation, une base de référence par rapport à la norme et des indications sur les domaines à améliorer.

Merci d'avoir écouté l'épisode d'aujourd'hui de DNV's navigating AI Assurance sur Combler le fossé de confiance dans l'IA.

Rejoignez-moi pour notre dernier épisode où nous examinerons comment mettre en œuvre une gouvernance efficace de l'IA.

 

Bonjour et bienvenue à ce nouvel épisode de Navigating AI Assurance, une série de DNV, organisme de certification et prestataire de formation indépendant de premier plan à l'échelle mondiale.

Je m'appelle Thomas Douglas et je suis Global ICT Industry Manager chez DNV.

Dans les deux premiers épisodes, nous avons examiné les risques et les avantages de l'IA pour les entreprises qui se lancent dans cette aventure et la manière de combler le déficit de confiance.

Dans le dernier épisode d'aujourd'hui, nous examinerons les mesures pratiques à prendre pour mettre en place une gouvernance efficace afin de vous mettre sur la bonne voie pour une utilisation sûre, fiable et éthique.

Ainsi, la norme ISO 42001. Il s'agit d'une norme internationale qui spécifie les exigences relatives à l'établissement, à la mise en œuvre, à la maintenance et à l'amélioration continue d'un système de management de l'intelligence artificielle ou « AIMS ».

La norme ISO 42001 est destinée aux organisations de toute taille impliquées dans le développement, la fourniture ou l'utilisation de produits ou de services qui utilisent des systèmes d'IA, afin d'en assurer le développement et l'utilisation responsables. Elle s'adresse à tout type et toute taille d'organisation et d'industrie, qu'il s'agisse d'organismes mondiaux, nationaux, régionaux, à but non lucratif ou du secteur public.

ISO 42001 est la première norme mondiale de système de management de l'IA certifiable et fournit des conseils précieux pour ce domaine technologique en pleine évolution. Elle aborde les défis uniques que pose l'IA, tels que les considérations éthiques, la transparence et l'apprentissage continu.

Pour les organisations, ISO 42001 définit une manière structurée de gérer les risques et les opportunités associés à l'IA, en équilibrant l'innovation et la gouvernance.

Les systèmes de management de la qualité fournissent un niveau de base de responsabilité, de répétabilité et d'auditabilité, et la norme 42001 est modelée autour de ces ensembles de principes et de structures. Par conséquent, elle peut être intégrée assez facilement à d'autres systèmes de management tels que les normes ISO 9001 ou ISO 27001.

Assurer l'engagement de la direction : obtenez l'engagement de la direction dès le début en incluant toutes les principales parties prenantes dans la prise de connaissance des risques et des dommages potentiels de vos systèmes d'IA, mais également des opportunités que l'utilisation de l'IA peut offrir. Il s'agit d'une étape cruciale pour la réussite du processus de certification, car elle donne le ton à l'ensemble de l'organisation.

Identifier les lacunes : analysez à la fois votre contexte et votre position internes et externes en matière d'IA, et sélectionnez le rôle de l'IA que votre organisation a. Par exemple, êtes-vous un utilisateur, un producteur ou un fournisseur d'IA ? Ou peut-être avez-vous plusieurs rôles ? Effectuez une analyse des écarts pour évaluer l'état actuel des processus et des systèmes par rapport aux exigences de la norme ISO 42001, et identifiez les domaines à améliorer.

Ce type d'évaluation préalable est vraiment un excellent moyen d'obtenir un aperçu de la situation actuelle de votre organisation en ce qui concerne le respect de certaines des exigences de cette norme.

Suivre une formation et sensibiliser : Il s'agit d'une étape cruciale de la norme ISO 42001 et du parcours de votre organisation vers la certification, car elle permet de renforcer les connaissances et les compétences internes de l'équipe centrale qui jouera un rôle important dans la mise en œuvre du système de management conforme à la norme.

La formation et les ateliers permettront à votre équipe d'acquérir les compétences et les outils nécessaires et de bien comprendre les objectifs et les rôles qui lui seront confiés.

Pour que l'équipe de mise en œuvre comprenne les tenants et les aboutissants de la norme, la formation est essentielle pour vous guider dans votre parcours vers la norme ISO 42001 et vous assurer que vous êtes conforme et que vous utilisez l'IA de manière sûre, responsable et éthique.

Consultez notre guide pratique en huit étapes et nos ressources de formation sur www.dnv.com/ai-management et découvrez comment obtenir la certification ISO 42001.

Pour vous remercier de votre attention, j'ai le plaisir d'offrir un code promotionnel aux 25 premières personnes qui s'inscriront à notre cours en ligne, conçu pour permettre aux participants d'acquérir des connaissances de base sur les exigences de la norme, ainsi que les connaissances fondamentales nécessaires à sa mise en œuvre.

Rendez-vous sur www.dnv.com/ai-management-course et entrez le code promotionnel « ISO42KAI-24 » pour accéder gratuitement à notre cours en ligne.

Merci d'avoir écouté la série Navigating AI assurance de DNV, dans laquelle nous avons guidé les entreprises qui se lancent dans l'IA en leur présentant certaines des considérations clés et des étapes pratiques à suivre pour adopter et utiliser l'IA de manière sûre, fiable et éthique.

L'IA est un domaine en constante évolution et en mutation rapide, alors n'hésitez pas à continuer à suivre DNV pour obtenir plus de conseils et de soutien. Vous pouvez nous trouver sur LinkedIn et visiter notre site web pour obtenir régulièrement des informations.