Ressources du 2ème webinaire
Session du mardi 10 février
de 11h à 12h


Les points clés
1. Biais et limites des modèles d'IA
Concepts :
Les réponses varient selon l'IA utilisée, ses données d'entraînement et critères implicites
Les résultats ne sont ni fiables ni objectifs à 100%
Les IA peuvent reproduire des stéréotypes et biais culturels
Recommandations :
Rester critique face aux résultats obtenus
Comparer les réponses entre différentes IA
Questionner les critères implicites utilisés
2. Hallucinations des IA
Concepts :
Tendance à fournir des informations fausses avec assurance
Peut concerner : citations inventées, chiffres erronés, références inexistantes
Recommandations :
Toujours demander des sources
Vérifier systématiquement les informations fournies
Formuler des prompts permettant à l'IA d'admettre qu'elle ne sait pas
3. Confidentialité et sécurité
Recommandations critiques :
Ne jamais partager de données personnelles, financières ou confidentielles
Désactiver le partage des données dans les paramètres
Privilégier les versions payantes pour un usage professionnel
Éviter particulièrement les IA gratuites pour les données sensibles
4. Cadre légal (Europe)
Concepts :
RGPD : protection des données personnelles
IA Act : obligations de transparence et responsabilité
Obligations :
Transparence sur l'utilisation des données
Mention obligatoire de l'IA dans les contenus générés
5. Note sur les Agents autonomes
Concepts :
IA capables d'exécuter des tâches autonomes
Nécessitent des autorisations spécifiques
Posent des risques en sécurité et contrôle
Recommandations :
Limiter strictement les autorisations accordées
Maintenir une vigilance constante
Le transcript
Bonjour à tous, j'espère que vous allez bien. Avant de commencer, je vais attendre une ou deux minutes pour que tout le monde soit là. Vous m'entendez bien ? Il y a un peu d’écho ici, mais j’espère que ça ira.
Alors, comment s’est passée votre journée d’hier ? Certains d’entre vous ont-ils exploré notre bouquet LM ? Si oui, partagez vos impressions dans le chat ou prenez la parole. Pour ceux qui n’étaient pas là hier, vous pouvez toujours écouter le replay et explorer l’outil plus tard. Daniel, par exemple, a testé le bouquet LM avec un rapport annuel et a été agréablement surpris par le résultat, même si certaines demandes manquaient de précision.
Aujourd’hui, nous allons approfondir nos connaissances sur l’IA et ses dangers. Je vous invite à couper vos micros et à utiliser le chat pour poser vos questions pendant la présentation. Nous allons explorer les limites des modèles d’IA et interagir ensemble pour mieux comprendre leur fonctionnement.
Pour commencer, je vous propose un exercice : choisissez une IA (ChatGPT, Gemini, Claude, ou le chat de Mistral) et testez quelques prompts que je vais partager dans le chat. Par exemple, demandez une image ou une liste de pays. Prenez quelques minutes pour tester et partagez vos résultats dans le chat. Nous analyserons ensemble les réponses obtenues.
En comparant les résultats, nous pouvons observer des différences selon les IA utilisées, les données d’entraînement et les critères implicites. Cela montre que les réponses des IA ne sont pas toujours fiables ou objectives. Par exemple, les images générées peuvent refléter des stéréotypes ou des biais culturels. Il est donc essentiel de rester critique face aux résultats.
Ensuite, nous avons abordé les hallucinations des IA, c’est-à-dire leur tendance à fournir des informations fausses avec assurance. Cela peut inclure des citations inventées, des chiffres erronés ou des références inexistantes. Pour éviter cela, il est crucial de demander des sources, de vérifier les informations et de formuler des prompts qui laissent la possibilité à l’IA d’admettre qu’elle ne sait pas.
Nous avons également discuté des règles de confidentialité et de sécurité. Ne partagez jamais de données personnelles, financières ou confidentielles avec une IA, surtout si elle est gratuite. Désactivez le partage des données dans les paramètres de l’outil et privilégiez les versions payantes pour un usage professionnel. En Europe, le RGPD et l’IA Act imposent des obligations de transparence et de responsabilité, notamment en ce qui concerne l’utilisation des données et la mention de l’IA dans les contenus générés.
Enfin, nous avons évoqué les agents intelligents, des IA capables d’exécuter des tâches autonomes grâce à des autorisations spécifiques. Bien que prometteurs, ces agents posent des risques importants en matière de sécurité et de contrôle. Il est donc essentiel de limiter les autorisations et de rester vigilant.
Pour conclure, l’utilisation de l’IA doit être raisonnée et maîtrisée. Apprenez à formuler des prompts précis, choisissez des outils adaptés à vos besoins et vérifiez toujours les résultats obtenus. Demain, nous aborderons les bonnes pratiques pour optimiser l’utilisation de l’IA tout en minimisant son impact environnemental et éthique.
Merci à tous pour votre participation, et à demain pour la suite !




