Artwork

Contenu fourni par Capgemini. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Capgemini ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.
Player FM - Application Podcast
Mettez-vous hors ligne avec l'application Player FM !

Écoutons le futur : Demain tous hackés par l'IA ?

39:52
 
Partager
 

Manage episode 480971484 series 3010916
Contenu fourni par Capgemini. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Capgemini ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.

De la création de logiciels malveillants à la manipulation émotionnelle via des deep fakes, l’Intelligence artificielle en particulier l’IA générative redéfinit les contours de la cybersécurité, transformant à la fois les méthodes des cybercriminels et les stratégies de défense des entreprises : 97 % des organisations ont signalé des incidents de sécurité liés à l’IA générative au cours de l’année 2024 (étude du Capgemini Research Institute). Comment les organisations peuvent-elles se protéger face à ces nouvelles attaques massives et sophistiquées ? Et comment trouver le juste équilibre entre innovation et sécurité ?

Cet épisode d’Écoutons le Futur, explore l’impact de l’IA sur la cybersécurité et les nouvelles vulnérabilités qu’elle crée. Nos invités échangent sur les défis posés par l’utilisation de l’IA : deepfakes, phishing amélioré, et arnaques bancaires utilisant des voix synthétiques. Ils partagent également leurs recommandations pour renforcer la confiance dans le numérique et se prémunir contre ces menaces émergentes.

Autour de la table :

Une émission animée par Valère Corréard

  continue reading

76 episodes

Artwork
iconPartager
 
Manage episode 480971484 series 3010916
Contenu fourni par Capgemini. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Capgemini ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.

De la création de logiciels malveillants à la manipulation émotionnelle via des deep fakes, l’Intelligence artificielle en particulier l’IA générative redéfinit les contours de la cybersécurité, transformant à la fois les méthodes des cybercriminels et les stratégies de défense des entreprises : 97 % des organisations ont signalé des incidents de sécurité liés à l’IA générative au cours de l’année 2024 (étude du Capgemini Research Institute). Comment les organisations peuvent-elles se protéger face à ces nouvelles attaques massives et sophistiquées ? Et comment trouver le juste équilibre entre innovation et sécurité ?

Cet épisode d’Écoutons le Futur, explore l’impact de l’IA sur la cybersécurité et les nouvelles vulnérabilités qu’elle crée. Nos invités échangent sur les défis posés par l’utilisation de l’IA : deepfakes, phishing amélioré, et arnaques bancaires utilisant des voix synthétiques. Ils partagent également leurs recommandations pour renforcer la confiance dans le numérique et se prémunir contre ces menaces émergentes.

Autour de la table :

Une émission animée par Valère Corréard

  continue reading

76 episodes

Tous les épisodes

×
 
Loading …

Bienvenue sur Lecteur FM!

Lecteur FM recherche sur Internet des podcasts de haute qualité que vous pourrez apprécier dès maintenant. C'est la meilleure application de podcast et fonctionne sur Android, iPhone et le Web. Inscrivez-vous pour synchroniser les abonnements sur tous les appareils.

 

Guide de référence rapide

Écoutez cette émission pendant que vous explorez
Lire

OSZAR »