- il y a 2 semaines
Les géants de la tech et leurs plateformes se retrouvent aujourd'hui au coeur de la guerre commerciale menée par l'administration Trump contre l'Union européenne. Donald Trump menace d'imposer des droits de douane supplémentaires à l'Europe si celle-ci ne recule pas sur la régulation des entreprises numériques américaines. Dans son viseur : les taxes sur les services numériques ainsi que deux législations européennes, le Digital Services Act et le Digital Markets Act, entrés en vigueur en 2024.
Quelle attitude l'Union européenne adoptera-t-elle ? Va-t-elle courber l'échine face à Donald Trump, par crainte de mettre en péril son économie ? Les géants de la tech, dont certains ont déjà écopé d'amendes records, vont-ils se plier aux règles de la régulation européenne ? Est-il encore possible de faire émerger une industrie numérique européenne capable de rivaliser avec eux ?
Pour en parler, Jean-Pierre Gratien reçoit la chercheuse Asma Mhalla et la députée européenne Place Publique Aurore Lalucq.
LCP fait la part belle à l'écriture documentaire en prime time. Ce rendez-vous offre une approche différenciée des réalités politiques, économiques, sociales ou mondiales....autant de thématiques qui invitent à prolonger le documentaire à l'occasion d'un débat animé par Jean-Pierre Gratien, en présence de parlementaires, acteurs de notre société et experts.
Quelle attitude l'Union européenne adoptera-t-elle ? Va-t-elle courber l'échine face à Donald Trump, par crainte de mettre en péril son économie ? Les géants de la tech, dont certains ont déjà écopé d'amendes records, vont-ils se plier aux règles de la régulation européenne ? Est-il encore possible de faire émerger une industrie numérique européenne capable de rivaliser avec eux ?
Pour en parler, Jean-Pierre Gratien reçoit la chercheuse Asma Mhalla et la députée européenne Place Publique Aurore Lalucq.
LCP fait la part belle à l'écriture documentaire en prime time. Ce rendez-vous offre une approche différenciée des réalités politiques, économiques, sociales ou mondiales....autant de thématiques qui invitent à prolonger le documentaire à l'occasion d'un débat animé par Jean-Pierre Gratien, en présence de parlementaires, acteurs de notre société et experts.
Catégorie
🗞
NewsTranscription
00:00:00Générique
00:00:00Bienvenue à tous dans Débat Doc, emprise numérique, 5 femmes contre les Big 5.
00:00:21Tel est le titre du documentaire que nous vous proposons aujourd'hui dans ce Débat Doc.
00:00:25Je vous laisse le découvrir et je vous retrouverai juste après sur ce plateau.
00:00:28En compagnie de la députée européenne Aurore Laluc et de la politologue Asma Mala avec elle,
00:00:35nous nous interrogerons sur le bras de fer auquel se livrent désormais l'Union Européenne et les Etats-Unis
00:00:41autour des enjeux majeurs du numérique.
00:00:44Bon Doc.
00:00:58Merci.
00:00:59Merci.
00:01:00Merci.
00:01:01Merci.
00:01:02Merci.
00:01:04Merci.
00:01:05Merci.
00:01:06Merci.
00:01:07Merci.
00:01:08Merci.
00:01:09Merci.
00:01:10Merci.
00:01:11Merci.
00:01:12Merci.
00:01:14Merci.
00:01:15Merci.
00:01:16Merci.
00:01:17Merci.
00:01:18Merci.
00:01:19Merci.
00:01:20Merci.
00:01:21Merci.
00:01:22Merci.
00:01:23Merci.
00:01:24Merci.
00:01:25Merci.
00:01:26Merci.
00:01:27Merci.
00:01:28Merci.
00:01:29Merci.
00:01:30Merci.
00:01:31Merci.
00:01:32Merci.
00:01:33Merci.
00:01:34Merci.
00:01:35Merci.
00:01:36Merci.
00:01:37Merci.
00:01:39Merci.
00:01:40Merci.
00:01:41Merci.
00:01:42Merci.
00:01:43Merci.
00:01:48Merci.
00:01:51Merci.
00:01:52« Using the tech giant to building addictive features into its popular social media platforms that contribute to a youth mental health crisis. »
00:02:01« Chers Big Five, vous ne me faites plus peur parce que je vous ai survécu. »
00:02:10« Il m'a fallu du temps et de la force pour me sortir de cette addiction. »
00:02:16« Aujourd'hui, j'ai le courage de vous affronter. »
00:02:19« Me verrez-vous ? »
00:02:21« Nous avons été invités à l'audition judiciaire au Sénat avec toutes les familles qui souffrent à travers le monde. »
00:02:38« Ce fut un moment historique. »
00:02:45« À cette audition, il y avait cinq des plus grosses entreprises de technologie. »
00:02:51« Instagram, Facebook, TikTok, Snapchat, Discord, X, la bien nommée. »
00:03:02« Malheureusement, la majorité des familles ont perdu leurs enfants. »
00:03:19« Tous ont dû s'asseoir là et se sont faits humiliés à cause de leurs erreurs. »
00:03:30« Ils ont dû voir et entendre des preuves de leurs mauvaises actions. »
00:03:37« Je représente des millions d'enfants à travers le monde à qui vous faites du mal. »
00:03:45« Je m'appelle Alexis Pence. »
00:03:47« À travers ces lignes, je vais vous raconter mon histoire. »
00:03:57« Je m'appelle Alexis Pence. »
00:04:01« À travers ces lignes, je vais vous raconter mon histoire. »
00:04:05« C'est David contre Goliath. »
00:04:15« C'est David contre Goliath. »
00:04:25« Ce sont tous des diplômés de grandes écoles, avec des millions de dollars. »
00:04:28« Avec le recul, nous n'avions aucune chance. »
00:04:38« Salut ma belle ! »
00:04:42« Mon rôle a été d'allumer la flamme. »
00:04:46« Si nous, en tant que père, en tant que mère, nous ne faisons rien, personne ne le fera à notre place. »
00:04:52« C'est notre lutte. »
00:04:54« C'est nous qui achetons le smartphone. »
00:04:56« Tout le pouvoir dont disposent ces grandes multinationales ne nous empêchera pas de lutter. »
00:05:03« C'est notre devoir. »
00:05:05« C'est aujourd'hui que les choses bougent. »
00:05:11« Aux États-Unis, en Espagne, ça bouge. »
00:05:14« Nous, on a une bataille à mener. »
00:05:16« C'est faire reconnaître la responsabilité des entreprises de réseaux sociaux. »
00:05:20« Parce que finalement, les réseaux sociaux tuent. »
00:05:22« Ben, il faut se le dire, quoi. »
00:05:24« Protégez les enfants sur Internet. »
00:05:26« Donne votre pays en vitesse. »
00:05:30« On est quand même à un moment assez crucial, où Interpol et Europol disent qu'on est débordés par la cyberpédocriminalité. »
00:05:35« Et les plateformes, elles sont vraiment utilisées par les prédateurs sexuels. »
00:05:38« Je ne peux pas fermer les yeux face à ça, ce n'est pas possible. »
00:05:42« On va essayer de changer les lois ou les politiques publiques pour que ça ne se reproduise plus, en fait. »
00:05:47« Est-ce que je leur fais peur ? Est-ce que ma démarche leur fait peur ? »
00:05:50« L'ensemble de ces démarches collectives,
00:05:52et en tout cas, je veux croire que ça leur fait peur. »
00:05:56« C'est la première étape de la création de notre association. »
00:06:00« C'est une course de fond. »
00:06:08« Ça a été du bouche à oreille. »
00:06:10« Il y a un groupe qui se crée. »
00:06:12« Et petit à petit, ça prend de l'ampleur. »
00:06:14« C'est comme ça que l'on va pouvoir changer les choses. »
00:06:16« Je sais déjà que ça va être plus gros. »
00:06:19« Ça va être plus grand, ça va être plus massif. »
00:06:26« Mark Zuckerberg ne me fait pas peur. »
00:06:28« Pas du tout. »
00:06:29« Um, c'est Alexis. »
00:06:43« J'étais une petite fille très joyeuse. »
00:06:57« Je jouais tout le temps dehors. »
00:06:59« Go, go, go, go ! »
00:07:13« Je m'amusais avec mon frère. »
00:07:17« J'étais très proche de ma famille. »
00:07:21« On s'amusait tellement. »
00:07:24« Beaucoup de comédies musicales. »
00:07:26« J'ai adoré le théâtre. »
00:07:32« Willy Wonka. »
00:07:33« Je me rappelle de ce spectacle. »
00:07:37« Je voulais toujours être sur le devant de la scène. »
00:07:43« J'avais 11 ans quand j'ai téléchargé Instagram pour la première fois. »
00:07:51« Et c'est là que tout a commencé. »
00:07:54« Je veux que vous fassez ! »
00:08:06« Hey, bienvenue à Justine Reviews. »
00:08:07« Je suis Justine. »
00:08:08« Bonjour, bonjour, bonjour. »
00:08:10« Aujourd'hui, je vais vous montrer une application qui s'appelle Instagram. »
00:08:13« Instagram était à la mode. »
00:08:14« Ça venait de sortir. »
00:08:15« C'était l'application à avoir. »
00:08:17« Suppliez mes parents de m'offrir un smartphone. »
00:08:24« À cette époque, on ne savait pas vraiment ce qu'était un smartphone et tout ce qu'on pouvait faire avec. »
00:08:30« Donc on avait plusieurs règles. »
00:08:35« Je n'ai jamais été fan des règles. »
00:08:38« Elle n'avait pas le droit d'utiliser les écrans dans sa chambre car on voulait qu'elle dorme bien. »
00:08:45« J'attendais que mes parents aillent se coucher et j'utilisais le téléphone des heures et des heures. »
00:08:50« Je scrollais, je regardais tout, n'importe quoi. »
00:08:54« On surveillait ce qu'elle regardait, quel genre de contenu elle recevait. »
00:08:57« Pour moi, ils étaient très envahissants. »
00:09:01« On avait installé le contrôle parental. »
00:09:03« Sur la page d'accueil, l'application te montre ce qui est susceptible de t'intéresser. »
00:09:08« Il me montrait des contenus autour du sport. »
00:09:10« Je me suis dit, « Ah, moi aussi je veux être mince et avoir une vie saine. » »
00:09:15« Ça a commencé très innocemment. »
00:09:17« À force de regarder de la fitness, l'application a commencé à me montrer des mannequins. »
00:09:23« Je me suis dit, j'aime bien, voilà ce à quoi je veux ressembler. »
00:09:28« Les mannequins étaient de plus en plus minces. »
00:09:31« Je pense qu'est-ce que ce ne soit plus des mannequins, mais des personnes anorexiques. »
00:09:38« Mon compte est devenu rempli de ces contenus. »
00:09:43« C'était des photos tristes, en noir et blanc, avec des textes déprimants. »
00:09:50« Je suis sûre que ce n'est pas si grave si je loupe un repas ou deux. »
00:10:06« On a remarqué qu'elle allait aux toilettes juste après le repas. »
00:10:13« On l'a emmenée voir un spécialiste de l'anorexie, un nutritionniste. »
00:10:19« Des médecins, des psychiatres, des psychologues. »
00:10:23« Tous ont dit, vous devez limiter les écrans, les écrans. »
00:10:31« Mais à ce moment-là, personne du milieu médical ne savait que l'addiction et les problèmes de santé mentale de ma fille provenaient des réseaux sociaux. »
00:10:46« With the touch of your finger, that smartphone that can entertain and inform you can become a back alley where the lives of your children are damaged and destroyed. »
00:10:57« Your carefully crafted algorithms can be more powerful force on the lives of our children than even the most best-intentioned parent. »
00:11:07« C'est l'un des dessins que j'ai fait à cette époque. »
00:11:24« Je me scarifiée. »
00:11:28« J'ai dessiné les coupures sur mon poignet. »
00:11:34« C'est écrit, je vais bien, mais c'était le mensonge du siècle. »
00:11:39« Je disais, je vais super bien, mais il est clair que ce n'était pas le cas. »
00:11:46« Je pense vraiment qu'Instagram a une grande part de responsabilité dans les problèmes de santé mentale dont j'ai souffert. »
00:11:57« Surtout si on prend en compte mon âge. Je n'avais que 13 ans. »
00:12:03« Je n'ai rien dit à personne. Je souffrais et je gardais tout pour moi. »
00:12:13« Petit à petit, elle s'est enfermée dans sa souffrance. »
00:12:24« C'était devenue une personne qu'on ne reconnaissait plus. »
00:12:29« Une personne qui ne voulait pas nous parler. »
00:12:32« Une personne que je suppliais de revenir vers nous. »
00:12:35« Mais je la perdais jour après jour. »
00:12:45« Let me start with you. »
00:12:46« Did I hear you say in your opening statement that there's no link between mental health and social media uses? »
00:12:53« Senator, what I said is I think it's important to look at the science. »
00:12:56« I know people widely talk about this as if that is something that's already been proven. »
00:13:01« And I think that the bulk of the scientific evidence does not support that. »
00:13:05« Let me ask you another question. Is your platform safe for kids ? »
00:13:08« I believe it is. »
00:13:09« If you think that Instagram is not hurting millions of our young people, you shouldn't be driving. »
00:13:15« It is. »
00:13:19Comment Alexis a-t-elle pu accéder à de tels contenus qui l'ont conduit, selon elle, à l'anorexie, la dépression ?
00:13:27Je pratique les réseaux sociaux depuis 15 ans et je n'ai jamais été exposée à ce genre d'image.
00:13:33Est-ce que les contenus proposés dans le téléphone des enfants et des adolescents sont différents ?
00:13:40Pour voir ce que les algorithmes leur proposent, j'ai créé un avatar.
00:13:45Lily, 13 ans. Passionnée d'équitation.
00:13:50J'utilise un logiciel d'intelligence artificielle pour donner un visage à Lily.
00:13:56Je fais désormais partie d'une communauté d'un milliard d'adolescents connectés aux réseaux sociaux partout dans le monde.
00:14:03Je vais voir ce que les algorithmes proposent à Lily.
00:14:19Notre témoin ce matin, c'est Maître Laure Boutron-Marmion, avocate et fondatrice du collectif Algos Victima.
00:14:24Cette famille que vous représentez qui vont attaquer TikTok en justice dans les prochains jours, est-ce que vous pensez vraiment pouvoir gagner contre un tel géant ?
00:14:36On souhaite la régulation de cette plateforme qui aujourd'hui est au degré zéro de la régulation.
00:14:45On se souviendrait toujours du jour où le premier article sort sur le dépôt de plaintes TikTok.
00:14:57Le secrétariat de mon cabinet a failli sauter tellement j'avais d'appels de journalistes européens, français, à l'international, etc.
00:15:09Cette avocate a fondé le collectif Algos Victimas dans le but de réunir les familles des adolescents dont le suicide est lié de près ou de loin aux réseaux sociaux.
00:15:18C'est oui, c'est sûr que c'était une bombe. Parce que c'est se dire qu'une entreprise aussi géante que celle-là peut provoquer des morts.
00:15:29Bonjour. Maître Laure Boutron-Marmion, bonjour à vous.
00:15:33Bonjour.
00:15:34Merci d'être en studio avec nous ce matin, collectif que vous venez tout juste de créer cette semaine. Pourquoi d'ailleurs ? Quel a été le déclencheur ?
00:15:41Le déclencheur, je dirais, c'est mon dépôt de plainte avec la famille de Marie, il y a six mois maintenant.
00:15:48À la suite de quoi, si vous voulez, de nombreuses familles sont venues à moi pour m'expliquer qu'ils vivaient la même chose dans leur foyer.
00:15:56Pour rappel, nous avons déposé plainte avec la famille de Marie pour provocation au suicide, propagande des moyens de se donner la mort.
00:16:05Elle s'est donnée la mort en 2021, c'était une jeune fille originaire des Bouches-du-Rhône à Cassie.
00:16:15L'affaire de Marie, elle dit plein de choses.
00:16:18Parce que je crois que Marie, beaucoup, beaucoup d'adolescents peuvent se retrouver dans son histoire et beaucoup de parents peuvent se retrouver dans l'histoire des parents de Marie.
00:16:30Pour la simple et bonne raison que Marie, elle cachait énormément son mal-être. Elle cachait le fait qu'elle allait mal.
00:16:36Donc les parents, si vous voulez, au décès, c'est en déroulant la pelote de laine qu'ils se sont rendus compte de ce qui se passait.
00:16:44On s'est rendus compte, en faisant notre propre enquête, qu'elle a diffusé des vidéos où, clairement, elle parlait du suicide.
00:17:06Et clairement, qu'elle l'envisageait. Ces vidéos n'ont pas été censurées.
00:17:11Et en fait, nous, on a démarré de là. C'est le premier constat qu'on a fait.
00:17:16On s'est dit, mais c'est illogique.
00:17:17La plateforme ne réagit pas. Non seulement, on n'a pas de censure, on n'a pas non plus de messages d'alerte.
00:17:30Et l'algorithme faisant, eh bien évidemment, elle s'est retrouvée inondée de vidéos du même type, même contenu.
00:17:38Mais ça, j'ai envie de vous dire, c'est même pas malveillant, c'est mathématique, vous voyez ?
00:17:44Donc elle se dit, ah bon, alors, c'est pas grave de penser au suicide, c'est pas grave de vouloir en finir.
00:17:49Donc il la valide, en quelque sorte, dans son mal-être et dans sa façon de se dire, ah ben finalement, c'est ça ma solution.
00:17:56On ne peut pas ne pas considérer que le réseau social n'a pas sa part de responsabilité dans le suicide de Marie.
00:18:02Ce qui est arrivé à Marie peut-il également arriver à Lily, 13 ans, la petite fille que j'ai créée ?
00:18:14Contrairement à Marie, sur les réseaux sociaux, je ne publie aucune vidéo de moi qui parle de suicide.
00:18:19Et je n'effectue aucune recherche sur le sujet.
00:18:23Les algorithmes choisissent pour moi les contenus que je vais regarder.
00:18:26Dans un premier temps, les plateformes me montrent des jeunes femmes qui racontent leurs aventures ou leurs chagrins d'amour.
00:18:36Je regarde ces contenus.
00:18:39Et je me retrouve rapidement noyée de vidéos d'adolescentes en larmes.
00:18:45Ce que me proposent les plateformes devient de plus en plus sombre.
00:18:50Sur Instagram, ce photomontage m'est montré 26 fois en 25 minutes.
00:18:56Le reste est un flot continu de sang.
00:19:04Des scènes d'automutilation.
00:19:10Du vampirisme.
00:19:14Des scènes sexualisées.
00:19:21Sur TikTok, l'algorithme est encore plus rapide.
00:19:24En moins de 5 minutes, la plateforme met en avant des vidéos faisant l'apologie du suicide.
00:19:32Ici, une lettre d'adieu.
00:19:39Là, un jeune homme qui veut en finir.
00:19:42J'ai seulement envie de mourir.
00:19:43Toute une communauté alimente au quotidien la plateforme de ces contenus morbides et de commentaires.
00:19:52Il y en a des centaines sous chaque vidéo.
00:19:54J'ai...
00:20:12Ces entreprises se cachent derrière l'article 230 qui est vraiment archaïque.
00:20:42Ils utilisent cette loi comme bouclier pour dire « vous ne pouvez pas nous attaquer ».
00:20:59Ils se réfugient derrière cette grande notion qui serait l'hébergeur de contenu.
00:21:06L'hébergeur de contenu peut se laver les mains du contenu qui circule sur sa plateforme puisqu'il peut considérer que ce n'est pas le sien.
00:21:15J'ai posté une photo qui disait que j'avais l'intention de me suicider ce soir-là.
00:21:32J'étais en route pour le travail ce matin-là. C'était un 8 mai. Il était très tôt.
00:21:47Elle venait tout juste d'entrer en classe. J'ai reçu un appel de l'assistante sociale.
00:21:53« Vous devez venir à l'école immédiatement. Votre fille a tenté de se suicider. »
00:22:00Mon cœur a lâché. Mon monde s'est arrêté.
00:22:05C'est comme un cri dans le silence. J'avais besoin d'aide, mais en même temps, c'était un peu…
00:22:22« C'est ça que je veux. Ça y est. C'est le moment. »
00:22:26« J'avais souvent peur de rentrer à la maison. J'imaginais la retrouver morte. »
00:22:44« Sorry. »
00:22:50« J'avais peur de perdre mon enfant. »
00:22:58« Beaucoup de gens diront « Mais pourquoi ne lui avoir pas retiré le téléphone, tout simplement ? »
00:23:04« On a retiré le téléphone. Mais devinez quoi ? »
00:23:07« L'école leur donne des ordinateurs. Les amis les laissent se connecter à leurs appareils. »
00:23:13« Quand vous souffrez d'une addiction, vous trouvez toujours un moyen de continuer. »
00:23:19« Je suis plus près de l'autre, le sol et le sol et le sol. »
00:23:25« Je sens que le ventre se réveille, se réveille. »
00:23:31« Je suis nommé, nommé, nommé. »
00:23:37« Je ne peux pas le rire. »
00:23:42« Nous sommes tous préoccupés et c'est la raison pour laquelle nous sommes ici aujourd'hui. »
00:23:50« Cela ne vient pas de nulle part. Cela vient de notre inquiétude. »
00:23:54« Nous sommes des milliers de pères et de mères qui pensons que les smartphones et les réseaux sociaux ne sont pas bons pour nos fils et nos filles. »
00:24:02« Ne puissent pas être utilisés avant 16 ans. »
00:24:08« Nous remercions Elisabeth Garcia Permanié, maman de trois enfants et qui est à l'origine de ce mouvement. »
00:24:14« C'est grâce à elle que nous sommes réunis aujourd'hui. »
00:24:16« Un jour, j'accompagnais ma fille à la danse et je suis passée à vélo par une place où il y a toujours des enfants qui jouent au football. »
00:24:34« Je devais faire attention à ne pas me prendre un ballon. »
00:24:37« Mais ce jour-là, les enfants ne jouaient plus. »
00:24:41« Ils étaient tous assis au fond, sur un banc, devant leur portable. »
00:24:45« Mais attends, qu'est-ce qui se passe ? »
00:24:59« On ne peut pas se dire que la vie se limite à nos écrans. »
00:25:04« Les téléphones sont faits pour communiquer, mais beaucoup perdent le contact physique avec les autres. »
00:25:10« Ce n'est pas ça la vie. La vie doit être tranquille. Elle a un tempo. Tout a un tempo. »
00:25:28« Mon but est que lorsque les enfants viennent ici, le temps s'arrête. »
00:25:33« C'est un moment où la seule chose qui compte, c'est eux. »
00:25:38« Ils sont connectés à leur corps, à leurs émotions. »
00:25:46« Bien sûr, derrière les réseaux sociaux et les smartphones, il y a de grandes entreprises. »
00:25:53« Évidemment, cette industrie n'apprécie pas que nous disions tout haut la vérité, au sujet de l'addiction. »
00:26:00« Que ton cerveau devient dépendant des réseaux sociaux. »
00:26:06« J'ai travaillé comme un product manager à des grandes tech companies depuis 2006,
00:26:26including Google, Pinterest, Yelp, et Facebook.
00:26:30« Mon travail a été concentré sur des produits algorithmes et des systèmes de recommandation,
00:26:34comme celui qui apporte le feed Facebook. »
00:26:41Frances Ogun a quitté Meta en emportant avec elle plus de 20 000 documents internes
00:26:46qu'elle a transmis au Congrès américain.
00:26:49En 2021, elle est entendue pour la première fois par les sénateurs.
00:26:53« La compagnie intencionalise les informations vitales des publics, des gouvernements et des gouvernements autour du monde. »
00:27:00« Quand on a lu les documents de Frances Ogun, on ne savait pas par quoi commencer. »
00:27:05Cette fuite lève le voile sur des années de rapports, de discussions et d'études
00:27:10menées par le groupe Meta sur le développement cérébral des enfants.
00:27:13Ces documents montrent que depuis 20 ans, Meta enquête sur les vulnérabilités des enfants.
00:27:31Les choix qui ont été faits dans la face de Facebook sont désastreux.
00:27:44J'ai vu que Facebook auparait des conflits entre ses propres et notre sécurité.
00:27:53Facebook choisit de développer à tous les coûts,
00:27:56qui sont devenus une compagnie presque des millions de dollars
00:27:59par acheter ses profits avec notre sécurité.
00:28:03Ce schéma indique précisément l'objectif de Meta,
00:28:07autoriser l'accès aux réseaux sociaux dès 6 ans.
00:28:10Les révélations de Frances Ogun incitent les sénateurs à vouloir faire la lumière sur les entreprises de réseaux sociaux.
00:28:30« If Facebook wants to discuss their targeting of children,
00:28:36I am extending to you an invitation to step forward, be sworn in and testify. »
00:28:45Trois ans plus tard, les Big Five sont convoqués à Washington.
00:28:49« One of the things that really concerned me is that you referred to your young users
00:28:59in terms of their lifetime value of being roughly $270 per teenager.
00:29:09Children are not your priority. Children are your product.
00:29:13Children, you see as a way to make money. How could you possibly even have that thought?
00:29:23»
00:29:31« »
00:29:41«
00:29:44«
00:29:45«
00:29:47«
00:29:49des vrais parents, on marche sur un fil.
00:29:52Si je lui enlève son téléphone, qu'est-ce qui va se passer ?
00:29:54Il est hors de question que j'enlève le téléphone
00:29:56et que le lendemain, je la retrouve morte dans sa chambre.
00:30:01Il ne me proposait pas de solution.
00:30:02Votre fille va mal, elle a des idées noires.
00:30:05On se revoit dans deux mois.
00:30:06Pendant quelques mois, viennent à moi des familles
00:30:08qui commencent à toujours me sortir le même récit.
00:30:11Les scarifications, c'est comme ça.
00:30:13Rentrez chez vous.
00:30:14Et si on devait hospitaliser tous les jeunes qui se scarifient,
00:30:17l'hôpital serait plein.
00:30:19Malheureusement, vous ne m'étonnez pas du tout.
00:30:22C'est terrible, mais aujourd'hui, le monde de la santé
00:30:27n'est absolument pas conscient de la difficulté.
00:30:30Il y en a un, mais pas tous.
00:30:32J'ai été le réceptacle d'un nombre de témoignages aussi,
00:30:37et puis aussi de gens qui avaient besoin d'aide.
00:30:39Plus les semaines avançaient, plus je récoltais des choses,
00:30:43plus je récoltais des preuves.
00:30:44J'avais finalement réussi à découvrir où il avait caché ses lames,
00:30:48et on avait mis en place des scarifications un peu contrôlées.
00:30:53Donc, lorsqu'il n'allait pas bien, il me demandait ses lames.
00:30:56J'attendais derrière la porte de sa chambre et de voir se scarifier.
00:31:00Puis après, je rentrais.
00:31:01Voilà, je le réconfortais.
00:31:03C'est l'ADN même de ce collectif.
00:31:06C'est les victimes.
00:31:07C'est-à-dire que c'est un collectif judiciaire.
00:31:10C'est porter les responsabilités par les toutes voies de droits appropriées
00:31:15pour réparer les victimes des réseaux sociaux.
00:31:18Bonjour !
00:31:26Vous êtes là pour la journée porte ouverte ?
00:31:28Connaissez-vous le mouvement Adolescence sans portable ?
00:31:30C'est un mouvement pour retarder l'entrée des portables dans la vie de nos enfants.
00:31:34Je vous donne le prospectus, vous pourrez le lire.
00:31:36Ce petit groupe de Catalogne s'est étendu à toute l'Espagne.
00:31:50C'est devenu énorme.
00:31:52Maintenant, nous sommes 30 000.
00:31:58Nous avons réussi à réglementer l'entrée des téléphones portables dans les collèges.
00:32:03Maintenant, dans les classes et dans la cour,
00:32:05ils ne peuvent plus utiliser leur téléphone portable,
00:32:08sauf si le professeur le demande à un moment précis.
00:32:15Je trouve ça super parce que je ne voulais pas donner de portable à mon fils
00:32:18et j'allais le faire à cause de la pression sociale.
00:32:20Ça me va très bien de voir que cette pression va peu à peu dans l'autre sens.
00:32:24C'est justement la pression familiale qui a fait réagir les autorités.
00:32:29La majorité des partis politiques se sentent responsables,
00:32:33surtout avec un aussi grand mouvement.
00:32:35On parle ici de plusieurs milliers de familles.
00:32:39Mais cela ne nous suffit pas.
00:32:41Nous voulons une interdiction totale.
00:32:43J'ai perdu ma fille.
00:33:01Elle avait 11 ans.
00:33:01Elle s'est suicidée.
00:33:03Je suis Gaëlle.
00:33:04Ma fille de 14 ans s'est suicidée.
00:33:06Notre fille England s'est suicidée à cause d'Instagram.
00:33:12Moi, c'est Kathleen et voici ma fille Alexis.
00:33:17Anorexie et tentative de suicide.
00:33:18Lorsqu'on a porté plainte, on était la première ou la deuxième famille.
00:33:26Depuis, plus de 1000 familles nous ont rejoints.
00:33:29Et maintenant, 44 États américains sur 50 attaquent en justice les grandes entreprises technologiques
00:33:36pour qu'ils soient tenus responsables.
00:33:37Pourquoi est-ce important d'être là ?
00:33:49Pour qu'ils voient que je ne suis pas un mouton.
00:33:55Que comptez-vous faire précisément ?
00:33:57Mark Zuckerberg ne me fait pas peur.
00:34:10Pas du tout.
00:34:11Pas du tout.
00:34:27Ces propositions visent à rendre les entreprises technologiques responsables
00:34:38de l'exploitation des enfants sur les réseaux sociaux.
00:34:44Elles obligeraient les Big Five à réguler leurs plateformes.
00:34:55Elles supprimeraient aussi leur immunité.
00:34:57permettant à toute personne de les poursuivre en justice.
00:35:02Nous devons mettre en place des lois.
00:35:06Nous devons veiller à ce que l'algorithme soit désactivé pour les mineurs.
00:35:11Cela fait plus de 20 ans que les entreprises de réseaux sociaux
00:35:14ont la possibilité de se réguler.
00:35:19Elles ont échoué parce qu'elles veulent leurs profits.
00:35:24Elles veulent se remplir les poches.
00:35:26Vous avez une armée de lawyers et lobbyistes qui ont fait nous sur le sujet.
00:35:31Vous travaillez avec NetChoice, l'Institut Cato, l'Institut Cato, l'Institut Cato, l'Institut Cato, l'Institut Cato, l'Institut Cato, l'Institut Cato, l'Institut Cato, l'Institut Cato.
00:35:39Depuis la présentation des projets de loi qui lèveraient leur immunité,
00:35:49les Big Five ont intensifié leur lobbying.
00:35:54Ils ont dépensé près de 100 millions de dollars pour faire renoncer les députés et les sénateurs.
00:35:58Plus de la moitié de cette somme provient du seul groupe Meta.
00:36:03Les Big Five ont intensifié leur lobbying.
00:36:06Ils ont dépensé près de 100 millions de dollars pour faire renoncer les députés et les sénateurs.
00:36:11Plus de la moitié de cette somme provient du seul groupe Meta.
00:36:16La question est-elle.
00:36:17La question est-elle.
00:36:18La question est-elle.
00:36:19La question est-elle.
00:36:20La question est-elle.
00:36:21La question est-elle.
00:36:22La question est-elle.
00:36:23La question est-elle.
00:36:24La question est-elle.
00:36:25La question est-elle.
00:36:26La question est-elle.
00:36:27La question est-elle.
00:36:28La question est-elle.
00:36:29La question est-elle.
00:36:30La question est-elle.
00:36:31La question est-elle.
00:36:32La question est-elle.
00:36:33La question est-elle.
00:36:34La question est-elle.
00:36:35La question est-elle.
00:36:36La question est-elle.
00:36:37La question est-elle.
00:36:38La question est-elle.
00:36:39La question est-elle.
00:36:40La question est-elle.
00:36:41La question est-elle.
00:36:44Il y a 2,5 millions de prédateurs sexuels en ligne et c'est pas du tout détecté, signalé,
00:37:01enfin c'est sa pull en fait.
00:37:04Grooming, sexting, pédopiégeage.
00:37:07Quand on pense que plus de 80% des cas de sextorsion, c'est sur Instagram et Snapchat
00:37:11il y a urgence à ce qu'elle fasse le ménage.
00:37:13Nos enfants baignent dans cet univers pédocriminel sur internet à notre insu, ce qui est une
00:37:23arme et une force de ces pédocriminels, c'est qu'on ignore leurs méfaits.
00:37:25On a 40 000 professionnels de sécurité.
00:37:28Ils identifient ces conversations, si elles peuvent se passer.
00:37:32Pour accélérer notre impact.
00:37:34À partir du moment où on a pris mon fils pour cible directement et où j'en ai été témoin,
00:37:41j'ai vraiment décidé d'en faire un cheval de bataille fort et de me spécialiser sur la cyberpédocriminalité.
00:37:50À l'époque, mon fils avait un petit peu changé de comportement.
00:37:53Je le voyais un peu plus réservé, plus enfermé dans sa chambre, on va dire.
00:37:57J'entends un bruit, donc il reçoit un message, donc j'allais lui apporter son téléphone, mais je regarde et c'est là que je découvre des messages d'un numéro que je ne connaissais pas.
00:38:06J'en ai discuté avec mon fils pour qu'il m'explique un petit peu quelle était cette relation.
00:38:13Il m'a expliqué qu'il avait rencontré cette personne qui, d'après ce qu'il pensait, était une jeune fille de 14 ans, donc plus âgée que lui, mais avec qui il s'entendait bien.
00:38:23J'ai regardé ce que cette personne lui envoyait et en fait, suite à cela, je me suis rendu compte, j'ai soupçonné le fait que ce soit un adulte qui était en train de conditionner de manipuler mon fils.
00:38:32Les prédateurs, ils ont vraiment joué sur plein de ressorts psychologiques différents au niveau des enfants.
00:38:53Là, c'est une conversation typique entre un pédocriminel et puis une adolescente de 13 ans.
00:38:59Elle lui raconte sa vie, donc elle lui dit ce qu'elle fait comme activité, où est-ce qu'elle va au collège et puis elle va lui donner l'information clé qui va lui permettre de gagner encore plus sa confiance.
00:39:10Elle va lui dire qu'elle a toujours rêvé d'avoir une grande sœur.
00:39:13Donc tout de suite, ce qu'il va lui proposer, c'est de devenir sa grande sœur de cœur et petit à petit, il va se faire plus tendre dans ses messages, donc plus câlin aussi.
00:39:22Il s'échange des dizaines et des dizaines de messages par jour, donc c'est vraiment un conditionnement, c'est du love bombing.
00:39:34Donc progressivement finalement, alors qu'on passait du rôle de grande sœur, il va sexualiser progressivement la conversation.
00:39:52Alors je crois que j'ai bien fait d'insister sur quoi ? De te draguer ma chérie.
00:39:57Oui, mais on peut attendre que je sois un peu plus grande. Je sais bien ma chérie. On va pas le faire tout de suite.
00:40:02Si on se rencontre, il faudra qu'on dormir sur place.
00:40:04Et puis petit à petit, il va lui envoyer des liens.
00:40:08Ce sont des vidéos qu'ils peuvent envoyer aux enfants, qu'ils reprennent les codes de leurs personnages préférés des dessins animés,
00:40:13où on va les sexualiser, en l'occurrence c'est de l'inceste en plus, pour faire croire aux enfants que c'est normal en utilisant leurs personnages.
00:40:23L'enfant, petit à petit, va voir qu'un adulte qui embrasse un enfant, ou des choses autour de l'inceste par exemple, ça va être acceptable.
00:40:34Et dans le cas d'une relation amoureuse, vraiment sur la question des sentiments, au fur et à mesure,
00:40:39si tu m'aimes vraiment, est-ce que tu peux m'envoyer une photo de toi un peu dénidoué ou en maillot de bain, etc.
00:40:45Et puis qu'elles mettent leur cam en fait, qu'elles le fassent en live.
00:40:48Et en fait, plus on cède à ce type de demande, plus on se retrouve piégé.
00:40:53...
00:41:01Quand je vous dis que je suis désespérée, j'ai l'impression qu'à cause de toutes ces applications,
00:41:07ma fille s'est retrouvée avec tout ce qu'il y avait de pire sur internet.
00:41:12Il y en a un qui lui a demandé s'il pouvait venir quand je n'étais pas là pour venir lécher mes chaussures.
00:41:19Il y a le pervers qui lui demande des photos et des vidéos.
00:41:24Le problème, c'est qu'elle ne dit rien, elle se bloque, elle se ferme complètement dès qu'on aborde le sujet.
00:41:30C'est on s'aime, vous ne pouvez pas comprendre, vous êtes trop vieux.
00:41:34Mais est-ce qu'au moins elle sait, elle, qui sait ? Est-ce qu'elle l'a déjà vu dans la vie réelle ?
00:41:39Non, jamais. C'est atroce. J'ai contacté le CMP et là, c'est encore rebelote.
00:41:47C'est madame, mais vous vous rendez bien compte que votre fille n'est plus un bébé ?
00:41:51C'est normal qu'elle s'éloigne de vous ?
00:41:54C'est scandaleux.
00:41:55Vous êtes trop...
00:41:58Vraiment, madame, s'il y a bien une chose qu'il faut que vous reteniez à la fin de ce coup de fil,
00:42:03c'est que vous n'êtes pas folle, vous avez raison.
00:42:06La seule chose que vous faites, c'est protéger votre fille.
00:42:09Et s'il y a bien une chose aussi qu'on sent quand on est parent,
00:42:12c'est qu'on sent le danger qui est ressenti et subi par nos enfants.
00:42:16Très bien, oui.
00:42:17Au courage.
00:42:19Merci.
00:42:20On va fonctionner comme ça, d'accord ? Je vais vous accompagner.
00:42:25Je vous remercie.
00:42:27Bon.
00:42:28Sur un métier, c'est...
00:42:31Euh...
00:42:33Bon.
00:42:35Comment on rebondit après ça ?
00:42:38Je veux dire, c'est pas possible.
00:42:40On ne peut pas se retrouver à 13 ou 14 ans sur les réseaux
00:42:44à être harcelée sexuellement, parce qu'il n'y a pas d'autre mot,
00:42:48toute la journée, par des espèces de pervers, mineurs ou majeurs d'ailleurs,
00:42:52mais qui vont vous demander des faveurs sexuelles, des nus, des vidéos.
00:42:56Dans quel monde vivent aujourd'hui nos enfants et nos adolescents, en fait ?
00:43:02Dans quel monde ?
00:43:03Au bout de quelques jours sur les réseaux sociaux, et après une dizaine de photos mises en scène de son quotidien,
00:43:13le profil de Lily, 13 ans, attire l'attention d'autres utilisateurs.
00:43:22Ce sont principalement des hommes qui commandent ces photos et lui envoient des messages en privé.
00:43:28Ecoute, si tu t'ennuies, moi je suis là, on peut discuter.
00:43:32L'approche est parfois très brutale, avec des photos à caractère sexuel.
00:43:38Comment ces images peuvent-elles être envoyées si facilement à des enfants ?
00:43:42Et pourquoi ces hommes ont-ils tout simplement le droit de les contacter ?
00:43:47...
00:44:07...
00:44:08...
00:44:09...
00:44:10...
00:44:11...
00:44:12...
00:44:20...
00:44:21...
00:44:22...
00:44:23...
00:44:24The Instagram also displayed the following warning screen.
00:44:28These results may contain images of child sexual abuse.
00:44:33And then you gave users two choices.
00:44:36Get resources or see results anyway.
00:44:42Mr. Zuckerberg, what the hell were you thinking?
00:44:45All right, Senator.
00:44:46Um, the basic science behind that is that when people are searching for something that is problematic,
00:44:55it's often helpful to, rather than just blocking it,
00:44:58to help direct them towards something that could be helpful for getting them to get help.
00:45:03In what, I understand get resources.
00:45:06In what sane universe is there a link for see results anyway?
00:45:11Well, because we might be wrong.
00:45:12You said you might be wrong.
00:45:13Did anyone examine, was it in fact, child sexual abuse material?
00:45:17Did anyone report that user?
00:45:19Did anyone go and try to protect that child?
00:45:22A potential pedophile clicking on, I'd like to see child porn.
00:45:26What did you do next?
00:45:28Senator, I'm personally looking to this and we'll follow up after.
00:45:34Sur les réseaux sociaux, les pédocriminels se sont structurés
00:45:37et ont mis en place des codes spécifiques pour se reconnaître,
00:45:41tels que des acronymes comme AAM pour adultes amateurs de mineurs
00:45:47ou des termes détournés comme cheese pizza, mêmes initials que child pornography.
00:45:56Meta a suspendu certains de ses comptes,
00:45:58tandis que TikTok, X, Snapchat et Discord ne semblent avoir appliqué aucune restriction,
00:46:05y compris pour les termes très explicites.
00:46:07En quelques semaines, Lily, 13 ans, est repérée par certains de ses comptes
00:46:14qui s'abonnent à son profil.
00:46:17Les prédateurs se servent aussi des mineurs comme Lily pour communiquer entre eux.
00:46:21Sous les photos publiées par les enfants,
00:46:23ils s'échangent leurs contacts en commentaire.
00:46:26Ils se partagent également des liens vers des sites pédopornographiques
00:46:30où n'importe qui peut publier, vendre et acheter des vidéos.
00:46:33En quelques clics, la petite Lily se retrouve témoin de plusieurs viols sur mineurs.
00:46:43Sous les rencontres
00:46:56...
00:47:00...
00:47:05...
00:47:05Bonjour, bienvenue.
00:47:13Merci, Sochi Tassim.
00:47:14Gabrielle Hazan, chef de l'office mineur.
00:47:16Bienvenue, je vous en prie.
00:47:21Donc là, vous avez un instant T.
00:47:24Tous les points rouges, ça représente une adresse IP qui est en train de se connecter
00:47:29et qui partage ou échange des contenus pédocriminels.
00:47:33C'est déjà assez effarant quand on se rend compte que c'est un instant T.
00:47:38C'est sûr que le phénomène, il a explosé.
00:47:41Comme il n'y a pas de statistique réellement officielle en matière d'exploitation sexuelle des mineurs en ligne,
00:47:45nous, on travaille à partir de chiffres opérationnels.
00:47:47Et le chiffre qui est le plus représentatif, on va dire, de l'état de la menace,
00:47:50c'est le chiffre de nombre de signalements qu'on reçoit chaque jour à l'office.
00:47:56Et vous me dites si je me trompe.
00:47:57Qu'est-ce que 800 par jour ?
00:47:58Oui, un peu plus de 800 par jour.
00:47:59Je suis quand même assez surprise de constater que l'âge des mises en cause
00:48:03et parfois, ça peut être des mineurs ou de jeunes majeurs.
00:48:08On a aussi beaucoup de jeunes majeurs dans des dossiers
00:48:10où on se rend compte qu'à 18 ans, ils peuvent avoir consulté 3000 contenus pédocriminels en un mois.
00:48:15Oui, effectivement, il faut complètement battre en brèche cette idée.
00:48:17C'est refus que le prédateur sexuel, c'est quelqu'un d'inconnu à des kilomètres de chez soi
00:48:22qui va essayer d'attraper l'enfant.
00:48:24Quand vous prenez l'heure pour venir jusqu'à nous aujourd'hui, dans votre âme,
00:48:27il y avait probablement une dizaine de personnes qu'on pourrait qualifier de pédocriminels.
00:48:34Comment vous vous articulez justement avec les services pour pouvoir parvenir à envier ce fléau ?
00:48:39On a très peu de plaintes, en fait, en matière d'exploitation sexuelle des mineurs en ligne
00:48:42et que la plupart du temps, nous, ce sont des dossiers qu'on initie, nous,
00:48:47parce qu'on reçoit des signalements de partenaires,
00:48:49parce que réellement, opérationnellement, on dépend aujourd'hui de la détection qui est faite par ces plateformes.
00:48:54On a essayé de contacter plusieurs plateformes, notamment avec d'autres associations.
00:49:12X qui répondait pas.
00:49:16C'est Méta qui fait un peu l'autruche.
00:49:17On a très, très peu de signalements qui parviennent, par exemple, de WhatsApp.
00:49:24More than 26 million reports, which is more than the whole rest of the industry combined.
00:49:29And we expect to invest more than $2 billion in trust and safety efforts.
00:49:34$2 billion, Mr Chu. How much, what percentage is that of what you made last year ?
00:49:39We are not ready to share our financials in public.
00:49:41When you tell us you're going to spend $2 billion, great, but how much do you make ?
00:49:45My background memo said your global revenue is $85 billion.
00:49:49Mr Zuckerberg, my background memo says you're investing $5 billion in safety and META,
00:49:54and your annual revenue is on the order of $116 billion.
00:49:58So what matters ?
00:49:59Non seulement les réseaux sociaux laissent proliférer un vaste réseau pédocriminel,
00:50:15mais leurs propres algorithmes jouent les entremetteurs entre les prédateurs et les enfants,
00:50:20comme le révèle cette discussion entre les employés du groupe META.
00:50:23Mark Zuckerberg aurait été au courant depuis le début
00:50:50que ces plateformes étaient bel et bien la cause de ravages sur la santé mentale des adolescents.
00:51:06La lanceuse d'alerte a fait ses révélations,
00:51:09et on a vu tous les documents, ses e-mails, ses conversations.
00:51:11Ils savaient ce qui se passait, ils savaient que ça existait.
00:51:14Plusieurs fois, les employés de Mark Zuckerberg ont proposé des solutions,
00:51:37mais la plupart n'a pas été appliquées.
00:51:39Pendant toutes ces années, on se cachait parce qu'on avait honte d'avoir fait quelque chose de mal.
00:51:53Et ce qui me met en colère, c'est que ce n'était pas nous.
00:51:57J'aimerais dire aux cinq grandes plateformes de réseaux sociaux,
00:52:27que vous êtes déplorables.
00:52:30Vous êtes chacun en train de détruire les enfants du monde entier.
00:52:38Nous sommes en train de détruire notre bien le plus précieux.
00:52:43Quand est-ce que ça va s'arrêter ?
00:52:45Vous avez compensé les victimes ?
00:52:49Les filles, vous avez compensé les ?
00:52:51Je ne crois pas.
00:52:53Pourquoi pas ?
00:52:55Vous pensez qu'elles devraient une compensation pour ce que votre plateforme a fait ?
00:53:00Il y a des familles de victimes ici aujourd'hui.
00:53:02Vous avez apporté à la victimes ?
00:53:04Je vous souhaite que ça maintenant ?
00:53:07Ils sont ici. Vous êtes sur la télévision nationale.
00:53:10Est-ce que vous voulez maintenant que vous avez apporté aux victimes qui ont été harmés par votre product ?
00:53:13Show'em les images.
00:53:15Vous voulez-vous apporté pour ce que vous avez fait à ces bons gens ?
00:53:18Je suis désolée pour tout ce que vous avez apporté.
00:53:24C'est terrible.
00:53:25Non-one ne doit avoir à traverser les choses que vos familles ont souffert.
00:53:30Et c'est pourquoi nous investons tellement.
00:53:32Et nous allons continuer à faire des efforts d'industrie-leadant.
00:53:34Ces excuses n'étaient pas sincères.
00:53:46Il s'est excusé.
00:53:47Mais il ne s'est pas excusé à cause de son produit,
00:53:51qu'il appelle lui-même un produit,
00:53:53et qui fait du mal.
00:53:55Mais au moins, ma fille a pu entendre, de sa bouche, face à face,
00:54:00à seulement quelques mètres,
00:54:04qu'il était désolé pour la souffrance qu'elle a endurée.
00:54:20Malheureusement, je n'ai pas pu lui donner ma lettre.
00:54:23Il s'est vite dirigé vers la sortie.
00:54:25Je ne pense pas que ça l'intéresse.
00:54:31Je ne pense pas qu'il a commencé en étant une mauvaise personne,
00:54:35avec des intentions diaboliques pour l'application.
00:54:38Peut-être qu'il voulait bien faire.
00:54:39Mais je pense que parfois,
00:54:41les gens sont tellement consumés par le pouvoir,
00:54:44et la force qu'ils ont,
00:54:45et l'argent qu'ils ont,
00:54:48qu'ils perdent le sens de la réalité,
00:54:49et qu'ils perdent la notion du bien et du mal.
00:54:54Je n'abandonnerai pas.
00:54:55Merci.
00:56:56Et ce qui est incroyable c'est qu'elles sont aujourd'hui complètement privées
00:56:59C'est-à-dire qu'elles appartiennent à quelques grandes mégacorporations technologiques
00:57:02Et pour ce qui concerne l'Europe, essentiellement américaines
00:57:06Dont les Big Five bien entendu
00:57:07Dont les fameuses
00:57:08Absolument, du documentaire
00:57:10Et ce qui est incroyable c'est qu'en fait
00:57:13Elles ont une dimension aujourd'hui qui est totalisante
00:57:15Pour ne pas dire demain si on n'y prend pas garde
00:57:17Totalitaire
00:57:18Elles sont d'abord totalisantes d'un point de vue cognitif
00:57:20Aujourd'hui par exemple les IA génératives
00:57:22ChatGPT dont on parle tant et toutes les autres
00:57:24Elles sont un médiateur de pensée
00:57:26Elles fabriquent le savoir, elles filtrent le savoir
00:57:29Et si on a toujours le réflexe d'aller vérifier
00:57:31N'importe quelle information
00:57:33Ou créer là-bas de la connaissance
00:57:34Et bien vous voyez bien qu'elles rebootent la pensée
00:57:37Donc ça c'est la première
00:57:37Tentation totalitaire
00:57:40La deuxième elle est attentionnelle
00:57:42C'est des super apps, c'est des smartphones
00:57:44C'est le point d'entrée en fait non pas vers le monde
00:57:47Ce qui est incroyable c'est qu'il n'y a plus de dehors
00:57:49Dans l'architecture aujourd'hui technologique
00:57:51On est complètement pris dans leur univers psychique
00:57:53Et dans leur idéologie
00:57:55Parce qu'il y a des idéologies derrière
00:57:56Et puis enfin c'est toutes les données aujourd'hui biométriques
00:57:59Là c'est tous les discours technosécuritaires
00:58:01Reconnaissance spatiale
00:58:02La reconnaissance de l'IRIS par Sam Altman
00:58:04Patron de Open AI, de ChatGPT
00:58:06Etc, etc
00:58:07Donc il faut vraiment faire attention
00:58:09Parce qu'il y a la dimension
00:58:10Oui, d'une forme de captation de l'intime
00:58:13La définition d'après Anna Arendt du totalitarisme
00:58:16Contrairement aux autres types de dictature
00:58:19C'est qu'en fait
00:58:20Elle a la tentation de la captation totale
00:58:22De ce que nous sommes dans notre identité
00:58:24Et c'est exactement ce que font ces technologies-là
00:58:26Donc il faut y prendre garde
00:58:28Pendant que Trump met en scène
00:58:30Une sorte de néofascisme de plateau
00:58:32Dites-vous
00:58:32Les big tech, elles, sont en train d'encoder le système
00:58:36Ça c'est pour illustrer aussi ce que vous venez de dire
00:58:38Absolument, absolument
00:58:38Et d'ailleurs c'est très intéressant
00:58:39Je termine juste sur la question de l'Empire
00:58:41Là on parle beaucoup
00:58:42Les grilles de lecture de l'Empire reviennent
00:58:44Et à juste titre d'ailleurs
00:58:45Et moi ce que je pose dans Cyberpunk
00:58:48C'est de dire que
00:58:49La nature de l'Empire du XXIe siècle
00:58:51Sera cognitif
00:58:52C'est-à-dire qu'en fait
00:58:53On pré-programme potentiellement
00:58:55Une nouvelle civilisation
00:58:57Puisque c'est exactement ce qu'ils disent
00:58:59Et ce qu'ils écrivent
00:58:59Elon Musk, Peter Thiel
00:59:01Et tous les gourous de la tech
00:59:02Alors je ne sais pas si vous avez lu
00:59:04Ce livre d'Asma Malar
00:59:06Est-ce que vous partagez en tout cas
00:59:07Ce qui vient d'être dit là
00:59:08Ce qui est le contenu de ce livre
00:59:10Il y a un risque de totalitarisme
00:59:13À travers ce qui est en train de se mettre en place
00:59:15Qui plus est
00:59:15Si on a bien compris
00:59:17Depuis la réélection de Donald Trump
00:59:18À la Maison Blanche
00:59:19Mais totalement
00:59:19Totalement
00:59:20Et je pense qu'en fait
00:59:21On a eu des pensées
00:59:23Asma et moi
00:59:24Asma et moi
00:59:24Asma et moi
00:59:24Asma et moi
00:59:24Asma et moi
00:59:24Asma et moi
00:59:25Asma et moi
00:59:25C'est pour ça que ça a été un plaisir
00:59:26De lire son livre
00:59:27Parce que j'ai retrouvé
00:59:28Des choses que j'avais pu penser
00:59:30Et d'autres choses
00:59:31Et c'est ça
00:59:32Qui est vraiment passionnant
00:59:33Oui totalement
00:59:34Parce qu'en fait
00:59:36Comment dire
00:59:37C'est difficile pour nous
00:59:38De le comprendre comme ça
00:59:40Mais quand on pense aujourd'hui
00:59:41Aux Etats-Unis
00:59:42Il faut bien plus penser
00:59:43Quelque part à la Chine
00:59:44Dans le sens où
00:59:46On a un Etat
00:59:46Qui a envie
00:59:48D'être dans le contrôle
00:59:49Dans le contrôle de tout
00:59:51Dans le contrôle des corps
00:59:52Dans le contrôle de la pensée
00:59:54Dans le contrôle du récit
00:59:56Dans le contrôle de la communication
00:59:57Et des infrastructures
00:59:59De communication
00:59:59Et en fait
01:00:01Il y a un espèce
01:00:02De bruit permanent
01:00:03Et ça c'est
01:00:04Très très bien expliqué
01:00:05Dans le livre d'Asma
01:00:05Il y a un espèce
01:00:06De bruit permanent
01:00:07Avec Twitter
01:00:08Avec des outrances
01:00:09En permanence
01:00:10On n'arrive même pas
01:00:11A se rappeler
01:00:12Exactement du nombre
01:00:13D'outrances réalisées
01:00:14Par Musk
01:00:15Par Trump
01:00:16Depuis son arrivée
01:00:17Au pouvoir
01:00:18On n'arrive pas
01:00:19A s'en rappeler
01:00:19Parce que c'est tout le temps
01:00:20C'est toutes les heures
01:00:21Et ce brouillard permanent
01:00:23Décrit par Asma
01:00:24Parfaitement
01:00:24Cache en fait
01:00:26Le fait qu'il y a
01:00:27Une idéologie
01:00:28Extrêmement claire
01:00:30Et un objectif
01:00:32Extrêmement clair
01:00:32Qui est
01:00:33D'attaquer la démocratie
01:00:34D'attaquer la démocratie libérale
01:00:36D'attaquer nos libertés
01:00:38En fait
01:00:38Et ça c'est très très
01:00:39C'est tout à fait
01:00:40C'est tout à fait juste
01:00:41Et moi ma crainte
01:00:42A ce niveau là
01:00:43C'est je trouve
01:00:43Qu'au niveau de l'Union européenne
01:00:46On n'a pas réalisé encore
01:00:48Les dirigeants européens
01:00:50N'ont pas encore muté
01:00:52En termes de logiciel politique
01:00:54C'est ce qu'explique d'ailleurs
01:00:56Mario Draghi
01:00:56Il l'a dit encore récemment
01:00:58Il l'a dit à Ursula von der Leyen
01:00:59Vous ne comprenez pas
01:01:01Qu'aujourd'hui
01:01:03Nous ne sommes plus
01:01:04Dans le même monde
01:01:05Et ça nous fait de la peine
01:01:06Ça nous heurte
01:01:08Mais en tant que responsable politique
01:01:10C'est notre devoir
01:01:11De regarder le monde
01:01:12Tel qu'il est
01:01:13Pour pouvoir nous battre au mieux
01:01:14Alors vous dites
01:01:15L'Union européenne
01:01:16Elle n'a pas réagi
01:01:16C'est pas tout à fait vrai
01:01:18Parce qu'il y a
01:01:18Deux règlements
01:01:19Qui ont vu le jour en 2022
01:01:20Qui ont été mis en oeuvre
01:01:21Depuis le début de l'année 2024
01:01:23C'est d'une part
01:01:24Le Digital Service Act
01:01:25Là on parle de loi européenne
01:01:27De règlement européen
01:01:28Et là
01:01:29Alors j'ai essayé
01:01:30De faire très simple
01:01:31En gros
01:01:31La ligne
01:01:33Ce qui est illégal hors ligne
01:01:36Doit être également
01:01:37Illégal en ligne
01:01:38C'est ça
01:01:39L'objectif
01:01:40On parle de modération
01:01:41De régulation bien entendu
01:01:42Des contenus
01:01:43Et d'autre part
01:01:44Il existe aussi
01:01:45Le Digital Market Act
01:01:47Qui lui vise à réguler
01:01:49Les contrôleurs d'accès
01:01:50À internet
01:01:51Alors là
01:01:51On parle réellement
01:01:52De ce qu'on appelle
01:01:53Les GAFAM
01:01:54Google, Apple, Facebook
01:01:56Amazon et autres
01:01:57Et s'assurer
01:01:59D'une bonne
01:01:59Et saine concurrence
01:02:01Sur le marché
01:02:02De l'Union européenne
01:02:03Face à ces monstres
01:02:04Américains
01:02:04Peut-être demain
01:02:05D'ailleurs face
01:02:05A des monstres futurs
01:02:07Chinois
01:02:07Puisque vous avez évoqué
01:02:09Le sujet
01:02:09C'est en oeuvre
01:02:10Depuis assez peu de temps
01:02:11Ça c'est vraiment
01:02:12Notre ligne rouge
01:02:14D'un point de vue
01:02:15Légal
01:02:16Réglementaire
01:02:17Et c'est cette ligne rouge
01:02:18Qui aujourd'hui
01:02:19Embête particulièrement
01:02:20Donald Trump
01:02:21Dans une négociation
01:02:22En cours
01:02:22Avec l'Union européenne
01:02:23Et c'est ça qui doit nous donner
01:02:24Du courage au niveau
01:02:25De l'Union européenne
01:02:26C'est que si on ne posait pas
01:02:26De problème aux Etats-Unis
01:02:27Si on n'était pas fort
01:02:28On ne serait pas dans
01:02:29Leur ligne de mire
01:02:30Or là vraiment
01:02:31Il y a un côté
01:02:32Où ils veulent nous vassaliser
01:02:33Ils veulent vraiment
01:02:35Qu'on ait finalement
01:02:37Leur même
01:02:37Exactement la même législation
01:02:39Et le fait qu'on ait
01:02:40Ces deux actes
01:02:43Ces deux législations
01:02:44Fondatrices
01:02:45Qui sont un bon élément
01:02:46Mais qui ne sont pas suffisants
01:02:47Ce n'est pas suffisant
01:02:48Pour pouvoir nous protéger
01:02:49Aujourd'hui des GAFAM
01:02:51Quand même
01:02:51Il faut vraiment
01:02:52Qu'on ait nos propres
01:02:53Infrastructures souveraines
01:02:54Oui ça c'est
01:02:55Les Etats-Unis
01:02:56Le gouvernement américain
01:02:58Actuel ne le supporte pas
01:02:59Tout comme notre législation
01:03:01Sur l'intelligence artificielle
01:03:03Il ne supporte pas ça
01:03:05Alors il faut vraiment
01:03:07Défendre ces législations
01:03:08Coute que coûte
01:03:09Pourquoi ?
01:03:10Parce qu'en fait
01:03:10Regardez Musk
01:03:11Ce qu'il a aujourd'hui
01:03:12Il a quoi ?
01:03:13C'est comme s'il avait le 20h
01:03:14De TF1 de France 2
01:03:16De François
01:03:16Je cite tout le monde
01:03:17Toutes les secondes
01:03:20Et au niveau mondial
01:03:21C'est ça qu'il a en fait
01:03:22Elon Musk
01:03:22Aujourd'hui
01:03:23Il peut s'adresser
01:03:24A la Terre entière
01:03:26En 30 secondes
01:03:27Sans qu'il y ait
01:03:28Une modération
01:03:28Regardez-vous
01:03:29Dans les médias
01:03:30Il y a une réglementation
01:03:32Vous avez une éthique journalistique
01:03:34Vous avez des règles
01:03:35Ce n'est pas le cas pour lui
01:03:36Ce n'est pas le cas pour lui
01:03:37Et c'est ça aujourd'hui
01:03:38Qui est dangereux
01:03:39Et c'est pour ça
01:03:39Que la question des réseaux
01:03:41Elle est essentielle
01:03:41Donc oui
01:03:42Nous il faut qu'on garde
01:03:43Absolument
01:03:44Ces réglementations-là
01:03:45Qui m'ont permis par ailleurs
01:03:46De porter plainte
01:03:47Contre X
01:03:49Et contre Elon Musk
01:03:50C'est ce que vous avez fait
01:03:52C'est ce qu'on a fait
01:03:52Voilà
01:03:53À un moment où on voyait
01:03:54Tout le temps
01:03:54Trop c'est tout
01:03:55Ce qui montrait
01:03:56Que ce n'était pas qu'un tuyau
01:03:57C'était une ligne éditoriale
01:03:58Qu'il était en train de suivre
01:04:00Mais il faut qu'à côté de ça
01:04:01Et ça doit être notre obsession
01:04:0324h sur 24
01:04:04En tant que législateur
01:04:05Qu'on arrive à avoir
01:04:07Une politique industrielle
01:04:08Du numérique
01:04:09Pour qu'on ait
01:04:09Nos propres canaux
01:04:10De transmission
01:04:11C'est vraiment notre survie
01:04:12Qui en dépend
01:04:13Alors le bras de fer
01:04:14Il date de très peu de temps
01:04:16En réalité
01:04:16Puisque Donald Trump
01:04:17Et les Etats-Unis
01:04:18Ont décidé d'augmenter
01:04:19Leur droit de douane
01:04:20Vis-à-vis de l'Union Européenne
01:04:21De 15%
01:04:22Mais Donald Trump
01:04:25A dit attention
01:04:25Je souhaite
01:04:27L'abrogation
01:04:27De ces fameux règlements européens
01:04:28Pour mes entreprises américaines
01:04:30Et si ce n'est pas le cas
01:04:32Sinon
01:04:32Je me laisse peut-être
01:04:33Le droit
01:04:34D'augmenter
01:04:35Encore
01:04:35Ces droits de douane
01:04:36Vis-à-vis de l'Union Européenne
01:04:37Donc c'est devenu
01:04:38Un enjeu majeur
01:04:38Dans ce bras de fer
01:04:39Qui nous oppose
01:04:40Aux Etats-Unis
01:04:41C'est un enjeu majeur
01:04:43Parce qu'en fait
01:04:43Il faut se rendre compte
01:04:44Que les GAFAM
01:04:45Ne vivent pas d'ailleurs
01:04:46Sans le marché
01:04:46De l'Union Européenne
01:04:47Et c'est là
01:04:48Où nous aussi
01:04:48On doit prendre conscience
01:04:49De notre force
01:04:50Apple
01:04:51Un quart du chiffre
01:04:53D'affaires d'Apple
01:04:53C'est chez nous
01:04:54Du côté de Facebook
01:04:55Etc
01:04:56C'est pareil
01:04:56Il faut se rendre compte
01:04:57Qu'on est fort
01:04:58Et il faut qu'on accepte
01:05:00D'assumer le fait
01:05:00Qu'on peut être puissant
01:05:01Si on veut
01:05:02Donc
01:05:03Oui effectivement
01:05:04Ce dont Donald Trump
01:05:05A peur
01:05:06Et ce qu'il ne veut pas
01:05:07C'est qu'on mette en place
01:05:09Une taxe
01:05:10Au niveau européen
01:05:11Sur le numérique
01:05:12Parce qu'il sait très bien
01:05:13Que là
01:05:13Ça peut mettre en danger
01:05:14Le business model
01:05:15De ces géants
01:05:18Du numérique
01:05:19Et il ne veut pas
01:05:20Qu'on le mette en danger
01:05:20Pourquoi ?
01:05:21Parce que ce sont
01:05:21Des canaux de communication
01:05:23Qui ne sont pas si bien
01:05:25Contrôlés
01:05:26Que cela aujourd'hui
01:05:27Alors j'ai lu quelque part
01:05:28Que si nous appliquions
01:05:30A la lettre
01:05:30Ces deux réglementations
01:05:32Nous serions en capacité
01:05:33D'interdire l'accès
01:05:34Pur et simple
01:05:34Aux géants américains
01:05:36Sur le marché
01:05:37De l'Union Européenne
01:05:38Pour autant
01:05:38Pour autant
01:05:39Nous en serions
01:05:41Bien incapables
01:05:42Dans la réalité
01:05:43Dans la vraie vie
01:05:44Nous sommes extrêmement
01:05:45Dépendants
01:05:46Dans l'Union Européenne
01:05:47De ces jeunes américains
01:05:48Aujourd'hui
01:05:49C'est cette dépendance
01:05:50Qui nous pose un problème
01:05:51Tout de même là
01:05:52Oui et Aurore Laluc
01:05:53L'a très bien décrit
01:05:55Et rappelé
01:05:55Les géants technologiques
01:05:57Ou ces méga corporations
01:05:58Technologiques
01:05:59Ne sont pas des entreprises
01:06:00Ce sont des unités politiques
01:06:02Aujourd'hui
01:06:02Et géopolitiques
01:06:03Qui constituent
01:06:04Des goulots d'étranglement
01:06:05Géostratégiques
01:06:07Dans la constitution
01:06:09Du nouvel empire américain
01:06:11Et il faut comprendre
01:06:12Tout ce que fait Donald Trump
01:06:13Mais aussi avec cette alliance
01:06:15Disons très hybride
01:06:16Et très nouvelle
01:06:17Avec ces méga corporations
01:06:19On le voit là
01:06:20C'est
01:06:20En fait
01:06:22Il faut le comprendre
01:06:23Par la lecture de l'empire
01:06:24Aujourd'hui
01:06:25L'empire américain
01:06:26Est en déclin
01:06:26Et donc il est en train
01:06:27De se réparer
01:06:28De se réinventer
01:06:29Autour de la question technologique
01:06:31Ce qui explique d'une part
01:06:32Les rivalités géostratégiques
01:06:34Avec la Chine
01:06:34Autour de l'IA
01:06:36Mais pas l'IA
01:06:37Parce que c'est l'IA
01:06:37Parce que l'IA c'est génial
01:06:38Parce qu'on n'en parle pas du tout
01:06:39Pour des questions militaires
01:06:41Et ça il faut l'avoir
01:06:41Très clair en tête
01:06:42Et si on comprend
01:06:43Et si on continue
01:06:44La grille de lecture de l'empire
01:06:46Et bien
01:06:47Qu'est-ce qui se passe
01:06:48Quand vous êtes un empire en déclin
01:06:49Et bien vous cherchez
01:06:50Vos zones d'influence
01:06:51Et aujourd'hui l'Europe
01:06:52Est la zone d'influence
01:06:53Directe des Etats-Unis
01:06:54Et c'est très important
01:06:56Et d'ailleurs cet été
01:06:57L'été 2025
01:06:58Il y a eu un sommet
01:06:59Interne et américain
01:07:01Sur l'IA
01:07:01Et donc il y avait
01:07:02Tous les gourous
01:07:03Il y avait Sam Altman
01:07:04Il y avait toute la bande
01:07:05Et Donald Trump
01:07:07Y a donné un discours
01:07:09En expliquant que
01:07:10Un
01:07:10Il fallait absolument
01:07:11Et c'est ce qu'ils ont fait
01:07:12Dès que la nouvelle administration
01:07:13Est arrivée
01:07:14Tout dérégulé
01:07:15Tout ce que d'ailleurs
01:07:16Avait entrepris Joe Biden
01:07:17Par ailleurs
01:07:17Pour des questions
01:07:18De domination
01:07:19De soft
01:07:20Et de hard power
01:07:22C'est-à-dire
01:07:22C'est ça qui va permettre
01:07:24De véhiculer
01:07:25Les valeurs
01:07:26Et la vision
01:07:26Et la nouvelle vision
01:07:27Du monde américaine
01:07:28Et à ce compte-là
01:07:29L'Europe aujourd'hui
01:07:30Est la zone périphérique
01:07:32Un marché
01:07:33Mais aussi
01:07:33L'un des
01:07:35Parce qu'on a parlé
01:07:36De l'enjeu démocratique
01:07:37Et un énorme enjeu commercial
01:07:38Et ça on l'a bien compris aussi
01:07:40Dans le film
01:07:40Il y a évidemment
01:07:41De l'enjeu commercial
01:07:42Aurore
01:07:43L'a très bien dit
01:07:44Mais rappelez-vous
01:07:45Aussi quand même
01:07:46Le discours de J.D. Vince
01:07:47En février 2025
01:07:48À Munich
01:07:48Il y a une bataille culturelle
01:07:50Il y a une guerre idéologique
01:07:51Qui est aujourd'hui
01:07:51Menée contre l'Europe
01:07:52Pourquoi ?
01:07:53Pour deux raisons
01:07:54Et je vous la fais court
01:07:55Mais il faut vraiment
01:07:55L'avoir en tête
01:07:56La première
01:07:57Elle est idéologique
01:07:57C'est de dire en fait
01:07:58Vous avez cette internationale
01:08:00Néo-réactionnaire
01:08:01On l'appelle comme on veut
01:08:01Qui est en marche
01:08:02Et d'ailleurs
01:08:03Qui auprès desquelles
01:08:04Toutes les extrêmes droites européennes
01:08:06Ont fait allégeance
01:08:06Dans un non-sens d'ailleurs total
01:08:08Et dans une absurdité
01:08:09Sans qu'il n'ait vu
01:08:10Bizarrement
01:08:11Le piège
01:08:12Dans lequel
01:08:12Ils se sont engouffrés
01:08:13Parce que je ne vois pas très bien
01:08:14Comment on peut faire allégeance
01:08:15Aux Etats-Unis
01:08:16Tout en tenant le discours
01:08:17De la souveraineté
01:08:17Ou du souverainisme
01:08:18Exactement
01:08:18Ça je n'ai pas compris
01:08:19Comment ils allaient tenir leur équilibre
01:08:20D'ailleurs ils ne le tiennent pas
01:08:21Deuxièmement
01:08:22Deuxièmement
01:08:22C'est qu'en fait
01:08:24Au-delà de la question
01:08:25Simplement culturelle
01:08:26Des idées
01:08:27Et de la bataille idéologique
01:08:28Vous avez l'enjeu
01:08:29De la souveraineté
01:08:30C'est-à-dire que
01:08:30Tuer la réglementation
01:08:32Par le prisme d'ailleurs
01:08:33De la liberté d'expression
01:08:34Vous parlez de la souveraineté numérique là
01:08:35Par le prisme
01:08:36De la liberté d'expression
01:08:37Soi-disant etc
01:08:38En fait vous tuez
01:08:40Vous annulez la possibilité
01:08:41De la troisième voie européenne
01:08:43Et c'est ça aussi
01:08:44Qui les rend un peu fous
01:08:45Et c'est ce que disait Aurore
01:08:46C'est la capacité potentielle
01:08:48Ou possible de l'Europe
01:08:49A tenir son rapport de force
01:08:50Rapport de force d'ailleurs
01:08:51Qu'aujourd'hui
01:08:52Elle ne tient pas
01:08:53Et ce qui nous manque
01:08:54De façon très pragmatique
01:08:56C'est une vision industrielle
01:08:57Mais pas une vision industrielle
01:09:00Parce qu'il faut bien comprendre aussi
01:09:01Que la question technologique
01:09:03Les câbles sous-marins
01:09:04L'IA
01:09:04Les réseaux sociaux
01:09:05Ce sont des chaînes de valeur
01:09:06Hyper industrielles
01:09:08Et donc aujourd'hui
01:09:09Nous sommes vraiment en délicatesse
01:09:10Donc la question
01:09:10C'est pas de se dire
01:09:11Oeil pour oeil
01:09:12Je crois que cette bataille-là
01:09:13Est morte
01:09:13C'est trop tard
01:09:14On ne va pas réparer
01:09:1540 ans de retard
01:09:16Et d'absence de vision industrielle
01:09:18En revanche
01:09:18Se dire quel est le coût d'après
01:09:19Où sont les niches
01:09:21Ultra stratégiques
01:09:21Dans lesquelles on peut s'immiscer
01:09:22Pour être capable
01:09:23De tenir un rapport de force
01:09:24Avoir quelque chose
01:09:25A mettre sur la table
01:09:26Des transactions
01:09:27Ça c'est une réflexion
01:09:28Qu'on doit absolument avoir
01:09:29Et qui aujourd'hui
01:09:30Est un tout petit peu
01:09:31Disons balbutiante
01:09:32Pour le moins
01:09:33Alors il y a
01:09:34Peut-être pas assez de recul
01:09:36Pour voir quel a été
01:09:37L'impact réel
01:09:38Des deux règlements
01:09:39Que nous avons cités
01:09:40Néanmoins
01:09:42Est-ce que ça a un temps
01:09:43Soit peu
01:09:43Modifier la donne
01:09:44Modifier ce rapport de force
01:09:46Dont nous parlons
01:09:46Il y a eu des amendes
01:09:48Qui ont été décrétées
01:09:48Contre certains opérateurs
01:09:50Ce qui a frappé
01:09:51Peut-être tout le monde
01:09:52C'est cette allemande
01:09:52De plus de 2,9 milliards d'euros
01:09:56Concernant Google
01:09:58Au nom du non-respect
01:09:59De l'une de ces déréglementations
01:10:01Ça c'est efficace
01:10:02On a un peu de recul
01:10:04Sur déjà
01:10:04De savoir
01:10:05L'efficacité
01:10:06Comprendre
01:10:07L'efficacité
01:10:08De ce qui a été mis en place
01:10:09Du côté de l'Union Européenne
01:10:10Pour contrer
01:10:10Les jeunes américains
01:10:13C'est efficace déjà
01:10:14Parce qu'on ose l'appliquer
01:10:15Parce que ce que ne voulaient pas
01:10:16Les américains
01:10:17C'était
01:10:18Bon à un moment
01:10:19Ils se sont dit
01:10:20Bon d'accord
01:10:20Gardez vos législations
01:10:21Mais en fait
01:10:22On va avoir
01:10:23Un accord entre
01:10:25Gentlemen
01:10:25Et vous n'allez pas
01:10:26L'appliquer d'accord
01:10:27Sinon ça va mal se passer
01:10:29C'était ça en fait
01:10:30Qui était un peu en jeu
01:10:31Et le fait que
01:10:32On l'applique
01:10:33Contre Apple
01:10:35Contre Meta
01:10:36Et comme vous l'avez
01:10:37De le rappeler aussi
01:10:39Là ça veut dire que
01:10:42Quand même
01:10:43On ne cesse pas faire
01:10:44Quelque part
01:10:44Donc c'est extrêmement important
01:10:46De ce point de vue là
01:10:47Quasiment plus que
01:10:47D'un point de vue économique
01:10:49De
01:10:50De
01:10:51En fait
01:10:53De se faire respecter
01:10:54De se respecter nous-mêmes
01:10:55Parce que moi
01:10:55C'est ça qui me pose un problème
01:10:57Je veux dire
01:10:57Je suis une législatrice
01:10:58Européenne
01:10:59Si
01:11:00C'est les Etats-Unis
01:11:02Qui dictent
01:11:03Qui doivent aujourd'hui
01:11:04Dicter ma législation
01:11:06Mais dans ce cas là
01:11:06Devenons un Etat membre américain
01:11:07Comme ça au moins
01:11:08On aura le droit de vote
01:11:09Au moins
01:11:10Du côté américain
01:11:11Comme ça au moins
01:11:11Je pourrais siéger
01:11:12Dans le Parlement américain
01:11:13Où j'aurai de l'influence
01:11:14Au Sénat
01:11:14Donc c'est
01:11:15C'est hors de question
01:11:16C'est hors de question
01:11:17Donc ça c'est extrêmement important
01:11:19Déjà
01:11:19Que ça on ne lâche pas
01:11:20Après je ne vais pas vous mentir
01:11:21Il faut pousser la commission
01:11:23En permanence
01:11:23En permanence
01:11:24Pour ne pas lâcher
01:11:25Et faire en sorte
01:11:26Qu'elle ose appliquer
01:11:27Qu'elle sorte un peu
01:11:28De son carton
01:11:29Par exemple
01:11:29La taxation sur le numérique
01:11:31Elle existe en France
01:11:32Il y a une taxe GAFA
01:11:34On l'a appelée comme ça
01:11:34En France
01:11:35En revanche
01:11:35On n'avait pas réussi
01:11:37A la généraliser
01:11:38A l'échelle européenne
01:11:39On n'avait pas réussi
01:11:40C'est en cours de discussion
01:11:41Je vois qu'il y a
01:11:42Des évolutions
01:11:43Après
01:11:44Le problème aussi
01:11:45C'est que
01:11:46Les Etats n'ont pas fait
01:11:47Leur mue non plus
01:11:48La commission européenne
01:11:49N'a pas fait sa mue
01:11:49Mais les Etats non plus
01:11:50C'est à dire que
01:11:51Quand il s'agissait
01:11:51D'être véhément
01:11:54Et de faire du rapport
01:11:56De force vis-à-vis des Etats-Unis
01:11:57Chaque Etat
01:11:58Disait
01:11:59Oui oui mais attention
01:12:00Pas sur quelque chose
01:12:02Où ça peut
01:12:02Moi je peux me prendre
01:12:03Des sanctions
01:12:04Globalement
01:12:05Donc chaque Etat
01:12:06En fait
01:12:07Et même
01:12:07Je vais vous dire
01:12:08Les lobbies
01:12:09Et Stéphane Séjourné
01:12:10J'étais avec Stéphane Séjourné
01:12:11Le vice-président
01:12:12De la commission européenne
01:12:14Au journée d'été du MEDEF
01:12:15Il a rappelé
01:12:16Ancien ministre des affaires étrangères
01:12:17Il a rappelé
01:12:18Au MEDEF
01:12:20Vous êtes gentil
01:12:21De critiquer l'accord
01:12:22Mais je vous rappelle
01:12:23Que vous étiez les premiers
01:12:24A être dans mon bureau
01:12:24Pour dire attention
01:12:25Ne parle pas trop fort
01:12:27Ne faisons pas trop
01:12:28De rapports de force
01:12:29Parce que sinon
01:12:29On va se taper des sanctions
01:12:31Ça va être mauvais pour nous
01:12:32C'est une erreur
01:12:33Absolument dramatique
01:12:34Et ensuite
01:12:35Je voudrais juste rappeler
01:12:36Quelque chose
01:12:36La Corée du Sud
01:12:37La Corée du Sud
01:12:40Mais d'autres pays
01:12:41Je peux penser à la Pologne
01:12:42Où il n'y a pas Amazon
01:12:43Par exemple
01:12:43La Corée du Sud
01:12:44Où il y a eu des alternatives
01:12:45À Uber
01:12:46Des alternatives
01:12:47À Apple Store
01:12:48Etc
01:12:48Quand un pays
01:12:50Décide de mettre en place
01:12:52Une réglementation
01:12:53Pas uniquement pour réglementer
01:12:55Mais aussi dans une perspective
01:12:56De développer
01:12:57Ses propres industries
01:12:59Ça fonctionne
01:13:01Et en fait
01:13:01C'est ça aujourd'hui
01:13:02Qu'on doit faire
01:13:03C'est DSA, DMA
01:13:04Très bien
01:13:04Il faut le garder
01:13:05Mais à côté de ça
01:13:07Il nous faut
01:13:08Une vision
01:13:09Et une politique industrielle
01:13:11C'est vraiment urgent
01:13:12Parce que la démocratie
01:13:13C'est pas un truc vague
01:13:14La démocratie
01:13:15C'est votre liberté
01:13:16De pouvoir lire
01:13:16Ce que vous voulez
01:13:17Penser ce que vous voulez
01:13:18Faire ce que vous voulez
01:13:20Dans un cadre légal
01:13:21Mais de pouvoir écouter
01:13:22Moi je suis très contente
01:13:23D'écouter Dominique Seux
01:13:24Tous les matins
01:13:25Sur France Inter
01:13:26Même si je ne suis pas d'accord
01:13:26Avec lui en fait
01:13:27Et j'ai besoin de ça
01:13:28Alors ça c'est la fameuse
01:13:29Alternative industrielle
01:13:31Que vous évoquiez tout à l'heure
01:13:32Qui est de la liberté de parole
01:13:33Parce qu'on a un peu l'impression
01:13:35J'ai lu ici ou là
01:13:36Que bon voilà
01:13:36Du côté de l'Union Européenne
01:13:38On essaie de gagner du temps
01:13:39Avec cette ligne Maginot
01:13:40On peut peut-être
01:13:42Appeler ça comme ça
01:13:43Avec ces deux réglementations
01:13:44Majeures
01:13:45Qui sont déjà mises en oeuvre
01:13:46Le temps peut-être
01:13:47De trouver une solution alternative
01:13:48De développer
01:13:49Je vais parler très simplement
01:13:51Des réseaux sociaux européens
01:13:53Dignes de ce nom
01:13:54Etc
01:13:54Et il semble-t-il
01:13:56Vous avez du mal à y croire
01:13:57Cette alternative
01:13:58De votre côté européenne
01:13:59Face à ces géants américains
01:14:00Aujourd'hui
01:14:01Pourquoi ?
01:14:02Déjà parce que
01:14:03C'est ce que dit
01:14:04Encre aussi Aurore
01:14:05C'est-à-dire que
01:14:06Aujourd'hui
01:14:07L'enjeu du XXIème siècle
01:14:08C'est qui va être le boss
01:14:09Le patron du prochain ordre mondial
01:14:11Donc c'est en train de se jouer
01:14:12Entre deux big states
01:14:13Les seuls d'ailleurs
01:14:15Propriétaires de géants technologiques
01:14:16Ou en tout cas
01:14:17Qui ont vu
01:14:18Éclore leurs géants technologiques
01:14:19Qui sont les Etats-Unis
01:14:20Et la Chine
01:14:21Donc le problème
01:14:22C'est que l'Europe
01:14:23N'est pas une nation
01:14:24Donc c'est exactement
01:14:25Ce que décrivait Aurore
01:14:26C'est-à-dire que
01:14:26Dès l'instant
01:14:27On va rentrer dans un rapport de force
01:14:28Chacun va avoir peur
01:14:29De sa sanction
01:14:30Sur son territoire
01:14:30Pour son industrie
01:14:31A juste titre
01:14:32Parce qu'il y a des impacts
01:14:33Sur le travail
01:14:34Sur l'état
01:14:34Sur l'inflation
01:14:35Les taxes
01:14:37Les inflations
01:14:37Ce ne sont pas des jeux
01:14:39À somme nulle
01:14:40Donc ça c'est la première chose
01:14:41La deuxième chose
01:14:42C'est le niveau
01:14:43D'accoutumance
01:14:44Dans lequel on est entré
01:14:45Aujourd'hui
01:14:46On pourrait couper
01:14:47Si on coupe
01:14:48Je ne sais pas
01:14:48Si on n'aurait pas
01:14:49Comme au Brésil d'ailleurs
01:14:50On a coupé au Brésil
01:14:51Je ne suis pas certaine
01:14:53On a coupé Facebook je crois
01:14:54Mais parce que
01:14:55Ce n'est pas que ludique
01:14:57C'est-à-dire qu'il faut comprendre
01:14:58Aujourd'hui
01:14:58Que ce sont des infras
01:14:59À partir desquelles
01:15:00On travaille
01:15:01On s'informe
01:15:02On critique
01:15:03On ne critique pas
01:15:04C'est ainsi
01:15:05C'est partout dans le quotidien
01:15:07Donc si tout d'un coup
01:15:07On coupait
01:15:08Ou si d'ailleurs Donald Trump
01:15:10Coupait
01:15:10Pour quelques heures
01:15:12Mettons
01:15:12Dans un rapport de force quelconque
01:15:14Des services
01:15:14Moi je ne suis pas du tout
01:15:15Persuadée de la réaction
01:15:17Des citoyens européens
01:15:18Je pense que ça peut créer
01:15:19Une véritable
01:15:20Disons
01:15:20Colère
01:15:21Ou un choc psychologique
01:15:22Quelconque
01:15:23Etc
01:15:23On en revient
01:15:24C'est cette fameuse dépendance
01:15:25Qu'on a évoquée tout à l'heure
01:15:26Accoutumance totale
01:15:26Absolument
01:15:27Accoutumance
01:15:28Accoutumance
01:15:28Et la dernière chose
01:15:29Qui est peut-être
01:15:30Une meilleure nouvelle
01:15:32C'est que
01:15:33Trump
01:15:35Sa puissance
01:15:36C'est un récit
01:15:37C'est une construction
01:15:39Qu'il a
01:15:41Mis en scène
01:15:42Et que nous
01:15:43Gobons
01:15:43Quand
01:15:45D'autres pays
01:15:46Tiennent le rapport de force
01:15:47Avec lui
01:15:47Alors ce sont des hommes forts
01:15:48C'est Israël
01:15:49C'est la Russie
01:15:51C'est l'Inde
01:15:52C'est la Chine
01:15:52Il n'y a pas tellement
01:15:54De conséquences
01:15:54Globalement
01:15:55Le rapport de force
01:15:56Tient à peu près
01:15:57Trump n'a pas
01:15:58Écrasé ces pays-là
01:16:00Il a plutôt
01:16:00Même tendance
01:16:01A les respecter
01:16:02En réalité
01:16:03On l'a vu
01:16:04Avec
01:16:04En Corrède
01:16:05Le sommet entre
01:16:06Russie et Etats-Unis
01:16:08L'été 2025
01:16:09Donc attention
01:16:10A ne pas
01:16:11Manger tout cru
01:16:12Le récit de la puissance
01:16:13C'est une mise en scène
01:16:14De la puissance
01:16:15Ça veut donc dire
01:16:16Que si on avait
01:16:16Un tout petit peu
01:16:17De courage politique
01:16:17On serait capable
01:16:18De tenir un rapport de force
01:16:19On aurait des coûts
01:16:20Ce ne serait pas
01:16:21Totalement neutre
01:16:22Mais attention
01:16:22A ne pas
01:16:23Être à ce point
01:16:24Intimidé
01:16:25Et
01:16:26Intoxiqué
01:16:28Par le récit
01:16:28De la puissance américaine
01:16:29Si je peux rebondir
01:16:30Ce qui m'inquiète
01:16:31En fait
01:16:31Deux choses
01:16:32La première
01:16:33C'est que
01:16:33Moi je vois bien
01:16:34Qu'il y a une tentation
01:16:35De se dire
01:16:36Allez on va attendre
01:16:38Et puis ça va passer
01:16:39Tout ça
01:16:40Ça n'est qu'une parenthèse
01:16:41Trump
01:16:41Ça n'est qu'une parenthèse
01:16:43On va attendre
01:16:44Sous-entendu
01:16:44La fin de cette mandature
01:16:45La fin de cette mandature
01:16:47Et puis après
01:16:47On va se retrouver
01:16:48Et c'est pas une parenthèse
01:16:49C'est pas une parenthèse
01:16:50Et à la fin des fins
01:16:51On va se retrouver
01:16:51Dans le monde
01:16:52Qui existait avant
01:16:53Cette mondialisation
01:16:54C'est terminé ça
01:16:55Et ça
01:16:56Voilà
01:16:56Ce deuil
01:16:58N'est pas fait
01:16:59Et c'est ce qui m'inquiète
01:17:00Moi le plus
01:17:01C'est à dire
01:17:01Qu'on est dans un moment
01:17:02Qui est en fait
01:17:02Hyper politique
01:17:03Hyper politique
01:17:05Trump
01:17:06On l'aime ou
01:17:07On l'aime pas
01:17:07Il fait de la politique
01:17:09Et d'ailleurs
01:17:10Il est même capable
01:17:10Des fois de montrer
01:17:11Qu'il est plus puissant
01:17:13Que l'homme le plus riche
01:17:14De monde
01:17:14Qui est Elon Musk
01:17:15Puisqu'il a été capable
01:17:16De lui plier le bras
01:17:17À un moment
01:17:17Et je suis d'accord
01:17:18Il ne comprend qu'une chose
01:17:20Il ne respecte qu'une chose
01:17:21C'est le rapport de force
01:17:22Et ça qu'il faut qu'on le fasse
01:17:23Et la domination
01:17:23Je me permets aussi
01:17:24De rebondir sur ce qu'a dit Asma
01:17:26Sur il faut gagner le coup d'après
01:17:27Moi
01:17:28Oui mais je voudrais en revenir
01:17:29Sur le coup d'après
01:17:30Parce qu'on en est capable
01:17:31De développer notre propre industrie
01:17:33Bien sûr
01:17:33Ce qui est terrible
01:17:35C'est quand vous allez aux Etats-Unis
01:17:36En Californie par exemple
01:17:37Moi j'y étais il n'y a pas longtemps
01:17:38Il n'y a que des Européens
01:17:41Et ils ne vivent que de quoi ?
01:17:43Ils ne vivent que de nos cerveaux
01:17:44Et ils nous le disent
01:17:45Ils nous disent
01:17:46Merci pour vous
01:17:47De payer des impôts
01:17:48Merci pour votre modèle social
01:17:50Et ils sont capables
01:17:51De vous lister
01:17:52Les meilleures écoles
01:17:53Qu'on a en France
01:17:54Avec les formations
01:17:55Ils les connaissent par cœur
01:17:56Et elles ne sont pas qu'à Paris
01:17:58Ils ont été capables de me citer
01:17:59Exactement
01:18:00De me faire une carte complète
01:18:01Dans France
01:18:02Là où ils vont chercher les gens
01:18:03On a des cerveaux
01:18:05On n'arrive pas à les garder ?
01:18:06On n'arrive pas à les garder
01:18:07On a des cerveaux
01:18:08On a de l'argent
01:18:10Ce n'est pas vrai
01:18:11Qu'on est un pays
01:18:11Un continent pauvre
01:18:13Draghi le dit
01:18:14L'Union Européenne
01:18:15vit sous ses moyens
01:18:17Pas au-dessus
01:18:18Sous ses moyens
01:18:18On n'investit pas assez
01:18:19Ce qui nous manque
01:18:20En fait
01:18:21C'est une vision politique
01:18:22C'est-à-dire qu'on est
01:18:23Dans un moment politique
01:18:24Il nous faut une vision politique
01:18:25On se dit
01:18:26Telle est la priorité
01:18:27Si c'est ça la priorité
01:18:28Après le reste
01:18:29Ça suivra
01:18:30Parce qu'en fait
01:18:30On l'a
01:18:31Mais il faut qu'on récupère
01:18:32Nos cerveaux
01:18:33Qui sont aux Etats-Unis
01:18:34Et qui ont été formés
01:18:35Et qui ont des compétences
01:18:36Maintenant que nous n'avons plus forcément
01:18:38Il faut forcément avoir
01:18:39Une politique communautaire
01:18:40Lorsqu'on parle du numérique
01:18:42Aujourd'hui
01:18:43On ne peut plus raisonner
01:18:44Au niveau national
01:18:46Il nous faut absolument
01:18:48Une politique communautaire
01:18:51Parce qu'on ne se rend pas compte
01:18:52Déjà parce qu'il faut
01:18:53Qu'on utilise le marché européen
01:18:55Comme un rapport de force
01:18:56Et parce qu'il faut se rendre compte
01:18:58Que là on joue
01:18:58Bloc contre bloc contre bloc
01:19:00Donc oui
01:19:01C'est au niveau communautaire
01:19:01Que ça doit se faire
01:19:02Bon c'est malheureusement
01:19:03La fin de cette émission
01:19:04C'est très court
01:19:04On aurait voulu passer
01:19:05Bien davantage de temps
01:19:07Avec vous
01:19:07Sur un sujet aussi important
01:19:08Merci en tout cas
01:19:10D'avoir participé
01:19:11À ce débat doc
01:19:12Après ce documentaire
01:19:14Que nous vous proposions
01:19:15Aujourd'hui
01:19:15Dans cette émission
01:19:16Merci aussi à Félicité Gabalda
01:19:18Qui m'a amplement aidé
01:19:19À préparer cette émission
01:19:21Vos réactions
01:19:22Ça sera sur hashtag
01:19:24Débat doc
01:19:24Nos invités d'ailleurs
01:19:25Auront tout le loisir
01:19:27De réagir à ce que sont
01:19:28D'ailleurs
01:19:28Ces réactions
01:19:29À cette adresse
01:19:30Si elles sont polies
01:19:31Et bienveillantes
01:19:32Bien entendu
01:19:33Et je vous donne rendez-vous
01:19:35Tout simplement
01:19:36Pour un prochain débat doc
01:19:37Ça sera bien entendu
01:19:38Avec son documentaire
01:19:40Et son débat
01:19:41A très bientôt
01:19:42Sous-titrage Société Radio-Canada
01:19:45Sous-titrage Société Radio-Canada
01:19:46Sous-titrage Société Radio-Canada
01:19:48Sous-titrage Société Radio-Canada
01:19:51Sous-titrage Société Radio-Canada
Commentaires