PodcastsTechnologyChoses à Savoir TECH

Choses à Savoir TECH

Choses à Savoir
Choses à Savoir TECH
Latest episode

Available Episodes

5 of 1273
  • Stocker les data en Europe ne nous protègent pas des USA ?
    C’est une révélation qui risque de refroidir les ardeurs des partisans du cloud « souverain ». En Allemagne, un rapport juridique commandé par le ministère de l’Intérieur, longtemps resté confidentiel, vient d’être rendu public grâce à une demande d’accès à l’information. Et son constat est sans appel : les lois américaines permettent bel et bien aux agences de renseignement des États-Unis d’accéder à des données hébergées en Europe. Pour y voir clair, Berlin avait missionné des juristes de l’Université de Cologne. Leur question était simple, mais explosive : jusqu’où s’étend réellement le pouvoir des autorités américaines sur les données stockées hors de leur territoire ? La réponse tient en quelques textes bien connus à Washington : le Stored Communications Act, renforcé par le Cloud Act, et surtout la section 702 du Foreign Intelligence Surveillance Act, prolongée par le Congrès jusqu’en 2026 au moins. Ensemble, ces lois offrent une portée extraterritoriale massive aux services américains. Le point clé est juridique, pas géographique. Peu importe que vos données soient stockées à Francfort, Dublin ou Paris. Ce qui compte, c’est qui contrôle l’infrastructure. Si la maison mère d’un fournisseur cloud est basée aux États-Unis, elle peut être contrainte de transmettre des données, même si celles-ci sont hébergées par une filiale européenne. Et la zone grise va plus loin encore : selon les experts cités par Heise Online, même certaines entreprises européennes peuvent être concernées dès lors qu’elles entretiennent des relations commerciales substantielles avec les États-Unis. On pourrait croire que le chiffrement règle le problème. Là encore, le rapport tempère. Le droit américain impose aux entreprises de préserver l’accès aux données jugées pertinentes dans le cadre d’enquêtes potentielles. Un fournisseur cloud qui se rendrait techniquement incapable d’y accéder s’exposerait à de lourdes sanctions. Résultat : un conflit frontal entre le RGPD européen, qui limite les transferts vers des pays tiers, et l’extraterritorialité revendiquée par Washington. Le Data Privacy Framework, censé servir de pont entre les deux blocs, apparaît plus fragile que jamais.Cette situation touche directement les géants américains du cloud, mais le cas de Microsoft 365, omniprésent dans les administrations et les entreprises européennes, cristallise les inquiétudes. Certains juristes estiment qu’un usage compatible avec le RGPD reste possible, à condition de mener des évaluations d’impact très poussées. D’autres jugent cette approche illusoire. Pour des acteurs comme Nextcloud, le diagnostic est clair : audits et clauses contractuelles ne suffisent plus. L’Europe doit investir massivement dans ses propres infrastructures, miser sur l’open source et développer des technologies réellement autonomes. Car une chose est désormais évidente : héberger des données en Europe ne garantit plus leur protection. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    2:55
  • Microsoft prêt à abandonner l’IA en cas de « péril » ?
    La phrase a résonné comme un coup de tonnerre dans le monde de la tech. Mustafa Suleyman, responsable de l’intelligence artificielle grand public chez Microsoft, a affirmé que le groupe pourrait tout simplement renoncer à certains développements si l’IA devenait incontrôlable. Un propos rare dans un secteur davantage habitué aux promesses d’omnipotence qu’aux appels à la retenue.Cette prise de position tranche avec l’euphorie ambiante de la Silicon Valley. Tandis que nombre d’acteurs poursuivent à marche forcée le Graal de l’« intelligence artificielle générale », Microsoft se présente en gardien prudent, prêt à activer un bouton d’arrêt d’urgence. Pour Mustafa Suleyman, la ligne est claire : l’entreprise ne développera pas de systèmes qu’elle ne peut pas maîtriser. L’ambition affichée est celle d’une « superintelligence humaniste », conçue pour assister l’humain, et non pour le remplacer. Copilot, l’assistant intégré aux outils de Microsoft, serait la première illustration de cette vision. Mais ce discours soulève un paradoxe. Microsoft est aussi l’un des principaux investisseurs mondiaux dans l’IA, avec des dizaines de milliards de dollars engagés dans ses infrastructures et dans son partenariat stratégique avec OpenAI. Une posture d’équilibriste, entre accélération technologique maximale et promesse de retenue éthique. Appuyer sur l’accélérateur tout en affirmant garder le pied sur le frein.Cette prudence affichée éclaire aussi les relations, parfois ambiguës, entre Microsoft et OpenAI. Là où OpenAI revendique ouvertement l’objectif de créer une intelligence artificielle générale, Microsoft temporise. Son PDG, Satya Nadella, a récemment qualifié ce concept de « légèrement survendu », préférant mettre en avant des usages concrets et immédiatement utiles. Reste à savoir si cette ligne rouge est réellement infranchissable ou si elle relève d’une stratégie de communication destinée à rassurer le public et les régulateurs. Car dans le même temps, Microsoft a renégocié son partenariat avec OpenAI afin de pouvoir développer ses propres modèles d’IA, en toute autonomie. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    2:10
  • Une start-up créée le « Tinder des enfants » ?
    Sur le papier, l’application française Wizz promet une expérience sociale encadrée et sécurisée. Dans les faits, le constat est bien plus inquiétant. Son fonctionnement repose sur le swipe, comme Tinder ou Bumble. Pourtant, Wizz assure ne pas être une application de rencontres et met en avant un système de vérification d’âge par intelligence artificielle, censé séparer strictement les utilisateurs par tranche d’âge. Une barrière qui, selon plusieurs enquêtes, ne tiendrait pas. Les faits divers s’accumulent. À Hawaï, une fillette de 11 ans a été agressée par un militaire de 19 ans qui se faisait passer pour un adolescent de 15 ans sur l’application. D’autres affaires décrivent des scénarios similaires : un homme de 23 ans prétendant avoir 14 ans, ou encore un individu de 27 ans se présentant comme mineur pour approcher et agresser plusieurs adolescentes. Dans tous les cas, le point commun est le même : une vérification d’âge défaillante.Le magazine américain The Hill a voulu tester ce système. Un journaliste de 28 ans s’inscrit sur Wizz. Verdict : l’algorithme d’IA valide son profil comme celui d’un adolescent de 16 ans, sans alerte. Les « algorithmes sophistiqués de sécurité » mis en avant par l’entreprise apparaissent alors comme un simple argument marketing. Déjà épinglée par les médias, l’application avait été retirée temporairement des boutiques d’Apple et de Google, avant de revenir avec la promesse d’améliorations. Manifestement, sans effet concret. Ce débat s’inscrit dans un contexte plus large. Aux États-Unis, le Kids Online Safety Act, soutenu aussi bien par des élus démocrates que républicains, vise à imposer aux plateformes un véritable devoir de protection. Le principe est simple : comme dans l’automobile ou l’agroalimentaire, une entreprise ne pourrait plus lancer un service sans démontrer qu’il est sûr pour ses utilisateurs, notamment les mineurs.L’industrie technologique reste aujourd’hui l’une des rares à échapper à ce type d’obligation. Avec une loi comme le KOSA, les plateformes devraient prouver l’efficacité réelle de leurs dispositifs de sécurité, sous peine de poursuites judiciaires. Les promesses ne suffiraient plus. Si ce texte doit encore franchir plusieurs étapes au Congrès américain, il envoie déjà un signal clair. Pour des applications comme Wizz, l’ère de l’auto-déclaration et des garde-fous symboliques touche peut-être à sa fin. Protéger les mineurs ne peut plus relever du discours. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    2:43
  • Google permet de créer des agents IA personnalisés ?
    L’intelligence artificielle est déjà partout dans notre quotidien professionnel. Depuis plus d’un an, Google a intégré son IA Gemini dans la suite Google Workspace : résumés automatiques dans Gmail, rédaction de documents dans Drive, prise de notes dans Meet… Mais avec l’arrivée de l’IA dite « agentique », le géant de la tech passe à l’étape suivante.Google vient d’annoncer le lancement de Google Workspace Studio, un nouvel outil destiné aux professionnels. Promesse affichée : permettre de créer, en quelques minutes, de véritables agents IA capables d’automatiser les tâches du quotidien, sans écrire une seule ligne de code. Il suffit d’expliquer, en langage naturel, ce que l’on souhaite faire. L’agent se charge du reste, grâce à la puissance de Gemini 3. Ces agents ne se contentent pas d’exécuter des consignes figées. Ils sont conçus pour analyser des situations, s’adapter à de nouvelles informations et déclencher des actions en fonction du contexte. Concrètement, ils peuvent surveiller vos mails, détecter des mots-clés, envoyer automatiquement des alertes, préparer des briefings, ou encore organiser des tâches à partir de contenus présents dans vos documents. Ils peuvent aussi aller chercher des informations sur le web pour ajuster leur comportement.Autre point clé : l’ouverture aux outils tiers. Google Workspace Studio peut se connecter à des applications professionnelles majeures comme Jira, Salesforce, Mailchimp ou Asana. Les agents peuvent ainsi automatiser des chaînes complètes de travail, de la gestion de projet au suivi client. Ils sont aussi partageables entre collaborateurs, avec des modèles prêts à l’emploi pour accélérer la prise en main. Google voit déjà plus loin. Des évolutions sont annoncées, notamment le partage externe, l’envoi d’e-mails hors du domaine principal, ainsi qu’une prise en charge avancée des webhooks, ces mécanismes qui permettent aux applications de dialoguer entre elles en temps réel. Le déploiement a commencé cette semaine. L’accès pour les utilisateurs finaux est prévu à partir du 5 janvier 2026, pour les domaines à activation progressive. L’outil reste réservé aux abonnements payants Business, Enterprise, Education et aux offres Google AI dédiées. Les mineurs, eux, n’y auront pas accès. Derrière cette annonce, un signal clair : Google ne veut plus seulement proposer de l’assistance par IA, mais confier aux entreprises de véritables agents numériques autonomes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    2:23
  • Le web majoritairement peuplé de bots IA ? Clouflare le prouve.
    C’est une annonce qui fait l’effet d’un séisme dans le monde du web. Matthew Prince, le patron de Cloudflare, révèle que son entreprise a bloqué 416 milliards de requêtes de robots d’intelligence artificielle depuis juillet. Un chiffre vertigineux, qui confirme une tendance que beaucoup pressentaient : Internet n’est plus majoritairement parcouru par des humains, mais par des machines.Les données du rapport 2025 d’Imperva enfoncent le clou : les bots représentent désormais 51 % du trafic mondial, contre seulement 27 % il y a dix ans. Une bascule spectaculaire, portée par la frénésie des géants de l’IA — OpenAI, Anthropic, Google et consorts — dont les modèles doivent avaler toujours plus de données pour s’améliorer. Résultat : leurs robots arpentent le web en long, en large et en travers. GPTBot, l’aspirateur d’OpenAI, a triplé sa présence en un an. ClaudeBot, son équivalent chez Anthropic, suit le même rythme. Ces bots vont plus loin que les anciens robots d’indexation : ils réclament 2,5 fois plus de données par requête que le crawler de Google. Et le plus croustillant, c’est qu’ils ne renvoient quasiment aucun visiteur vers les sites qu’ils exploitent. Cloudflare a mesuré un ratio édifiant : 70 900 visites de ClaudeBot pour 1 visiteur humain généré. OpenAI fait un peu mieux… mais reste entre 250 et 1 217 pour un.Cette marée robotique a un coût. Le projet open source Read the Docs a vu sa consommation de bande passante chuter de 75 % en bloquant les bots IA — de 800 à 200 Go par jour — générant 1 500 dollars d’économies mensuelles. Multipliez cela par des milliers de sites : la facture globale devient gigantesque. Face à cette extraction massive de contenus, des pistes émergent : faire payer les visites des robots d’IA, ou rémunérer les créateurs dont les contenus alimentent les réponses générées. Reste à convaincre les géants du secteur. En attendant, Cloudflare a tranché : depuis juillet, tous les bots IA sont bloqués par défaut sur les sites qu’il protège. Un geste symbolique — l’entreprise ne couvre qu’environ 20 % du web — mais un signal fort. Les créateurs de contenus ne sont peut-être pas encore dépossédés. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    2:27

More Technology podcasts

About Choses à Savoir TECH

Tout ce qu'il faut savoir dans le domaine de la Tech et d'Internet. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Podcast website

Listen to Choses à Savoir TECH, The Making of Musk: Understood and many other podcasts from around the world with the radio.net app

Get the free radio.net app

  • Stations and podcasts to bookmark
  • Stream via Wi-Fi or Bluetooth
  • Supports Carplay & Android Auto
  • Many other app features

Choses à Savoir TECH: Podcasts in Family

  • Podcast Choses à Savoir SCIENCES
    Choses à Savoir SCIENCES
    Science
  • Podcast Real Life French
    Real Life French
    Education, Language Learning
Social
v8.1.4 | © 2007-2025 radio.de GmbH
Generated: 12/16/2025 - 8:48:44 PM