banner

Blog

Aug 07, 2023

L'IA ne va pas (encore) anéantir l'humanité

Michael Calore Lauren Goode

L'idée que l'intelligence artificielle dominera un jour le monde est depuis longtemps un incontournable de la science-fiction. Mais étant donné les progrès rapides des outils d'intelligence artificielle au niveau du consommateur, la peur s'est sentie plus proche de la réalité ces derniers mois que jamais auparavant. L'engouement pour l'IA générative a suscité autant d'enthousiasme que d'appréhension, laissant de nombreuses personnes inquiètes quant à l'avenir de cette technologie clairement puissante mais encore naissante. Cette semaine, par exemple, le groupe à but non lucratif Center for AI Safety a publié une courte déclaration avertissant que la société devrait prendre l'IA aussi au sérieux en tant que menace existentielle que nous le faisons pour la guerre nucléaire et les pandémies.

Cette semaine sur Gadget Lab, nous discutons avec le rédacteur principal de WIRED, Will Knight, de la dangerosité réelle de l'IA et des garde-fous que nous pouvons mettre en place pour empêcher l'apocalypse du robot.

Lisez l'histoire de Will sur les experts qui craignent que l'IA ne représente une menace existentielle pour l'humanité. Lisez toute la couverture de WIRED sur l'IA.

Will recommande le roman Antimatter Blues d'Edward Ashton. Mike recommande de stocker vos aliments avec Bee's Wrap au lieu de produits en plastique à usage unique. Lauren recommande le podcast Succession de HBO, animé par Kara Swisher.

Will Knight peut être trouvé sur Twitter @willknight. Lauren Goode est @LaurenGoode. Michael Calore est @snackfight. Bling la hotline principale de @GadgetLab. L'émission est produite par Boone Ashworth (@booneashworth). Notre thème musical est de Solar Keys.

Vous pouvez toujours écouter le podcast de cette semaine via le lecteur audio sur cette page, mais si vous souhaitez vous abonner gratuitement pour obtenir chaque épisode, voici comment :

Si vous utilisez un iPhone ou un iPad, ouvrez l'application appelée Podcasts ou appuyez simplement sur ce lien. Vous pouvez également télécharger une application comme Overcast ou Pocket Casts et rechercher Gadget Lab. Si vous utilisez Android, vous pouvez nous trouver dans l'application Google Podcasts en appuyant simplement ici. Nous sommes aussi sur Spotify. Et au cas où vous en auriez vraiment besoin, voici le flux RSS.

Lauren Goode: Mike.

Michel Chaleur: Lauren.

Lauren Goode: Je pensais que nous devrions parler de notre propre extinction aujourd'hui.

Lauren Goode

Lauren Goode

Julien Chokkattu

Personnel filaire

Michel Chaleur: Vous voulez dire en tant que journalistes ou podcasteurs ou en tant qu'êtres humains ?

Lauren Goode: Peut-être les deux.

Michel Chaleur: Super.

Lauren Goode : Ouais. Ouais. C'est un autre podcast sur l'IA, mais je pense que les gens vont vraiment vouloir écouter celui-ci.

Michel Chaleur: Alors puis-je demander quand allons-nous donner aux gens quelque chose à écouter qui soit réellement porteur d'espoir ?

Lauren Goode: Eh bien, en fait, je pense que ça fait aussi partie du spectacle.

Michel Chaleur: D'accord, super.

Lauren Goode: Alors allons-y.

[La musique du thème d'introduction de Gadget Lab est jouée]

Lauren Goode : Salut tout le monde. Bienvenue sur Gadget Lab. Je suis Lauren Goode. Je suis rédacteur senior chez WIRED.

Michel Chaleur : Et je suis Michael Calore. Je suis rédacteur en chef chez WIRED.

Lauren Goode : Et aujourd'hui, notre collègue écrivain, Will Knight, nous rejoint depuis Cambridge, Massachusetts. Will, c'est super de te revoir au Gadget Lab.

Chevalier : Bonjour. C'est super d'être de retour.

Lauren Goode : Un de ces jours, Will, nous allons te contacter et te dire simplement : "Voulez-vous parler de gadgets pour chats ou de quelque chose ?" Mais pour l'instant, vous êtes carrément dans le domaine de la couverture de l'IA. C'est de cela que nous vous invitons à parler. Oui, nous parlons encore une fois d'IA, mais cette fois c'est une déclaration d'un groupe de technologues qui mettent en garde contre une menace existentielle pour l'humanité. C'était la déclaration d'une phrase qui a été entendue dans le monde de la technologie plus tôt cette semaine. "Atténuer le risque d'extinction de l'IA devrait être une priorité mondiale aux côtés d'autres risques à l'échelle de la société, tels que les pandémies et la guerre nucléaire." Cela vient du Center for AI Safety, qui est une organisation à but non lucratif, et il a été signé par des personnalités du développement de l'IA. Maintenant, ce n'est évidemment pas la première fois que nous sommes avertis des dangers de l'IA. Certains de nos auditeurs se souviendront peut-être de la pause que des centaines de technologues et de chercheurs de haut niveau réclamaient en mars, et jusqu'à présent, cela n'a pas vraiment abouti à une pause. Mais tous ces avertissements apocalyptiques nous ont amenés à nous demander, que devrions-nous croire au sujet du potentiel de dommages de l'IA et qui parmi ces chercheurs et technologues offre l'opinion la plus fiable en ce moment ? Will, on voulait te faire venir pour en parler. Tout d'abord, reculez un peu. Parlez-nous un peu de cette déclaration du Center for AI Safety. Qu'est-ce qui a motivé cela?

Chevalier : Oui, donc je pense que ce qui a stimulé cela ainsi que la lettre précédente appelant à une pause, dans une large mesure, ce sont les progrès que nous avons vus dans ces grands modèles de langage, notamment GPT-4, qui alimente ChatGPT. Une partie des performances vient de dépasser ce à quoi s'attendaient les personnes travaillant dans l'IA. Ils s'attendaient à ce que certaines choses prennent 10 ans à résoudre ou seraient simplement plus insolubles sans nouvelles techniques. Et soudain, ce modèle est capable de faire des choses qui ressemblent à une sorte de raisonnement et à une sorte de pensée abstraite, même s'il est discutable de savoir si c'est vraiment ce que c'est. Il y a certainement eu ce moment où certaines personnes, et j'ai parlé à des chercheurs en IA qui n'étaient pas à distance, n'étaient pas du tout préoccupées par le risque existentiel et elles ont eu cette prise de conscience. C'est l'une des choses qui déclenche cela, je pense. Mais nous devrions également reconnaître qu'il y a ce genre de groupe au sein de la communauté de recherche sur l'IA qui s'inquiète depuis de très nombreuses années, parle de risques existentiels, et c'est une sorte de question philosophique qu'ils se sont posée. Et je pense que cela refait surface un grand nombre de ces points de vue et nous voyons un ensemble assez diversifié de perspectives fusionnées dans une déclaration de lecture vraiment assez alarmante. Je pense qu'il est important de reconnaître également qu'il y a beaucoup de chercheurs en IA qui ne s'inquiètent pas du tout de cette menace et offrent beaucoup plus de perspective et disent qu'il y a des menaces beaucoup plus immédiates que l'IA pose quand il s'agit de choses comme les préjugés ou la diffusion de désinformation ou simplement de se tromper dans le contenu qu'elle fournit, ainsi que des choses comme le changement climatique ou simplement d'autres problèmes qui représentent un risque beaucoup plus immédiat pour l'humanité, un risque plus tangible. Je pense que c'est une excellente question et c'est un peu épineux à déballer.

Lauren Goode

Lauren Goode

Julien Chokkattu

Personnel filaire

Michel Chaleur : Il s'agit donc d'un progrès impressionnant au cours des six derniers mois environ et quiconque a utilisé l'un de ces outils comme Bing Chat ou Google Bard a probablement été assez impressionné par sa capacité. Mais pour ma part, cela ne m'a pas fait penser à la guerre nucléaire et à la pandémie mondiale et à certains des avertissements que ces experts et chercheurs pointent du doigt. Comment extrapolez-vous cela? Comment l'IA va-t-elle réellement détruire l'humanité ?

Chevalier : C'est une excellente question, et oui, j'ai essayé de comprendre cela moi-même et j'ai parlé à des gens qui ont eu cette reconnaissance. Il y a un gars, Sam Bowman, qui est un chercheur de NYU qui a rejoint Anthropic, l'une des entreprises travaillant sur ce sujet avec la sécurité à l'esprit, et il a un laboratoire de recherche qui a été récemment mis en place pour se concentrer sur la sécurité. Et donc l'argument que ces gens ont, ou que certains ont comme lui, est que ces systèmes montrent des signes d'une plus grande intelligence à certains égards que prévu, et ils ont des objectifs qu'ils peuvent atteindre de manière opaque et difficile à prévoir, parfois de manière surprenante. Mais ensuite, ils extrapolent à partir de cela et disent quelque part, et c'est loin, mais ils disent aussi que nous ne savons pas jusqu'où parce que les choses évoluent plus rapidement. Donc, pendant des années, les gens ont travaillé sur ces systèmes d'IA et ils ont pu les faire trébucher et dire : "Ah, c'est comme ça que ça ne correspond pas à l'intelligence humaine." Avec GPT-4, il y a des cas où ils ne peuvent plus les faire trébucher et ils peuvent faire des choses là où ils se disaient, "Eh bien, je ne m'attendais pas du tout à ce que ça fasse ça." Je pense que ce genre de déclencheurs comme une sorte d'idée viscérale de quelque chose qui déjoue les gens, puis quand vous lui demandez de résoudre un problème et qu'il le fait de manière inattendue, ils s'imaginent en quelque sorte qu'on lui donne potentiellement l'objectif de, je ne sais pas, faire quelque chose de très important pour une société ou quelque chose et ensuite aller à des fins vraiment extrêmement surprenantes et risquées pour le faire. Cela semble être un énorme bond en avant ou une extrapolation étant donné que Bing Chat se casse et se trompe tout le temps. Mais je pense que c'est au cœur de tout cela, il y a ce genre d'idée de cette technologie qui est fondamentalement différente d'une manière ou d'une autre, qu'elle est en quelque sorte intelligente et qu'elle est plus intelligente que nous et qu'elle peut interagir et parfois essayer et même déjouer les gens. Je pense que c'est un peu de là que ça vient.

Lauren Goode: Est-ce la même préoccupation ou une préoccupation liée au fait qu'il soit sensible ?

Chevalier : Non je ne pense pas. Je pense que la question de la sensibilité est, comme, dépend de qui vous demandez. Il y a des gens qui diront que toutes sortes de systèmes peuvent être sensibles même s'ils ne sont pas biologiques et il y a un éventail d'opinions à ce sujet. Mais je pense que beaucoup de gens, du moins à qui j'ai parlé, diraient que ce risque ne nécessite pas de sensibilité. Il peut devenir incontrôlable et faire des choses très imprévisibles, qu'il soit réellement sensible, que vous puissiez dire qu'il était sensible ou non.

Lauren Goode

Lauren Goode

Julien Chokkattu

Personnel filaire

Lauren Goode : Will, vous parlez à beaucoup de chercheurs et de technologues qui sont dans cet espace, et honnêtement, ça ressemble parfois un peu à des chaises musicales. OK, bien sûr, les gens pourraient dire la même chose du journalisme, mais concentrons-nous sur l'IA. Beaucoup de ces gens sont venus de Google ou des mêmes institutions universitaires ou ils étaient à OpenAI, maintenant ils sont à Anthropic. Il est vraiment difficile de déterminer qui sont les acteurs clés, à part les plus évidents, et de déterminer où ils sont alignés et où ils divergent. Selon vous, quelles sont les personnes qui parlent le plus franchement de l'IA en ce moment et d'où viennent les opinions les plus divergentes ?

Chevalier : Eh bien, je veux dire, certaines des personnes les plus franches en ce moment sont celles de ces grandes entreprises qui ont ces intérêts acquis. C'est Sam Altman chez OpenAI ou des cadres chez Google et Microsoft. Ils sont assez francs, je pense pour diverses raisons qui ne concernent pas seulement les préoccupations de l'IA. On a l'impression qu'il y a, comme vous le dites, une sorte de monde légèrement incestueux de gens qui ont bu le Kool-Aid d'une IA surhumaine assez proche. Ensuite, il y a des gens comme les chercheurs qui ont écrit l'un des premiers articles sur ce point, ainsi Timnit Gebru et Margaret Mitchell de Google, qui ont écrit sur les risques réels et tangibles actuels avec les grands modèles de langage, comme le fait d'inventer des choses et d'induire en erreur les gens qui étaient chez Google à l'époque et qui ont ensuite été licenciés ou invités à partir en fonction de l'histoire racontée. Il y a certainement ce genre de division de personnes qui sont plus concentrées sur les risques à court terme et un peu frustrées par cette vision de l'angoisse existentielle à long terme, qui semble provenir d'un grand nombre de, la plupart des gens qui ont tendance à avoir beaucoup de pouvoir et d'intérêts financiers, puis des gens qui mettent en garde sur ce à quoi nous devrions faire face aujourd'hui et craignent que cela ne soit une distraction. Ensuite, oui, Geoffrey Hinton est un cas intéressant parce qu'il est l'une des personnes les plus célèbres de l'IA et l'une des personnes qui ont développé l'apprentissage en profondeur ou l'un des pionniers de l'apprentissage en profondeur, qui sous-tend tout cet apprentissage automatique qui est entré dans ces modèles. Et il a récemment en quelque sorte changé de position et est devenu plus inquiet ou est devenu plus franc. Il a quitté Google et a déclaré que nous devions commencer à nous inquiéter des risques. En fait, je pense qu'il est préoccupé par les risques à court terme ainsi que par ceux à long terme, mais ses inquiétudes concernant le fait que l'IA se déchaîne et finissent par prendre le dessus ou devenir incontrôlable ont fait la une des journaux et les gens se sont concentrés là-dessus. Mais je pense qu'il est un peu inquiet pour les deux.

Michel Chaleur : Will, nous avons déjà vu deux de ces grandes lettres ouvertes avertissant des risques immédiats et futurs de l'IA. Quand allons-nous voir le troisième et qui va l'écrire ?

Lauren Goode

Lauren Goode

Julien Chokkattu

Personnel filaire

Chevalier : Ouais, la semaine prochaine, je suppose signé par chaque leader mondial. Je pense que c'est un risque réel que les gens ne prennent pas au sérieux certains des vrais problèmes de l'IA à cause de cela. Je veux dire, c'est loin. Et donc si les gens sont vraiment inquiets à propos de problèmes, s'aligner sur ce genre de choses apocalyptiques est une voie extrême à suivre. Je peux sentir qu'il peut y avoir plus de contrecoup. Je veux dire, c'est en quelque sorte déjà en train de se produire, mais je peux voir qu'il y a plus de gens qui ne prendront pas ces gens si au sérieux.

Lauren Goode : Ouais, et comme votre reportage le mentionne, Will, la lettre n'aborde pas vraiment les dommages les plus immédiats comme les préjugés, la surveillance ou la désinformation, auxquels vous avez fait référence plus tôt. Et donc vous devez vous demander si se concentrer sur les grandes menaces existentielles nuit aux choses auxquelles nous devrions prêter attention en ce moment. Et je pense que c'est en fait une bonne transition vers notre prochain segment. Faisons une petite pause et nous reviendrons et parlerons de la réglementation de l'IA.

[Casser]

Lauren Goode : Plus tôt ce mois-ci, l'une des figures les plus importantes de l'IA générative, Sam Altman, qui dirige OpenAI, a témoigné devant le Congrès sur les implications de produits comme ChatGPT. Il a non seulement expliqué en termes simples comment cette technologie fonctionne, mais il a en fait appelé à une forme de réglementation, disant au Congrès qu'il devrait travailler avec les entreprises de cet espace pour essayer de déterminer les règles et les garde-corps avant que la technologie ne devienne totalement folle. Will, quand j'ai lu pour la première fois à ce sujet il y a quelques semaines, je dois admettre que je me demandais à quel point ces appels à la réglementation étaient sincères. L'industrie technologique a cette longue histoire de positionnement à DC de telle manière qu'elle semble vouloir travailler avec les législateurs, mais en fin de compte, trop de réglementation écraserait leurs entreprises. Pourquoi OpenAI demande-t-il des garde-corps ?

Chevalier : Ouais, je pense que c'est une sorte d'écho de ce que nous avons vu auparavant dans une certaine mesure. Et nous avons également vu Microsoft publier un plan pour réglementer l'IA. Et Google travaille avec l'UE soi-disant sur un écart de régulation pendant qu'ils élaborent des réglementations appropriées. Et je pense que c'est une sorte de, ils savent qu'une réglementation arrive, alors dire "Oh, nous nous en félicitons" leur donne l'impression qu'ils ne sont pas antagonistes et qu'ils peuvent aussi peut-être la façonner. Je pense aussi qu'il vaut la peine de reconnaître deux choses que les gens au gouvernement n'ont vraiment pas ... dans l'ensemble, ils n'ont aucune idée de ce que c'est. Et donc ils sont plus qu'heureux de se mettre dans une certaine mesure entre les mains des experts. Les experts qui y travailleront diront : "C'est nous qui comprenons vraiment cela et c'est ainsi que vous le réglementez." Ils ont en quelque sorte le dessus quand il s'agit de comprendre la technologie, mais aussi au sein du gouvernement, j'ai parlé à quelques personnes du gouvernement et ils voient une technologie, je veux dire, ils savent qu'il y a des risques, mais ils voient une technologie qui, selon les économistes, pourrait être extrêmement précieuse pour la productivité et l'économie, faire croître l'économie, et que les États-Unis ont une avance sur leurs rivaux. Alors ils ne veulent rien faire. Je pense que ce qui les inquiète le plus, c'est de mettre accidentellement un frein à la technologie. Je pense que des gens comme Sam Altman savent probablement qu'il n'y aura pas beaucoup d'appétit pour de véritables réglementations strictes autour de la technologie, mais ils essaient aussi simplement de faire bonne figure et d'aider à les façonner, vraiment.

Lauren Goode

Lauren Goode

Julien Chokkattu

Personnel filaire

Michel Chaleur : De plus, j'ai l'impression que lorsqu'un PDG d'une grande entreprise qui est un grand acteur de l'espace technologique parle de réglementation, ce qu'il fait vraiment, c'est qu'il se présente comme l'expert dans le domaine, ce qui augmente l'importance de son rôle dans la conversation. Cela en fait une voix qui ne peut être ignorée. Cela en fait une force que tout le monde doit suivre. Il s'agit vraiment de gonfler leur importance pour la société et de les placer dans une position de plus grand pouvoir, n'est-ce pas ?

Chevalier : Oui c'est vrai. C'est vrai. La vérité est qu'ils n'ont même pas publié de détails sur le fonctionnement du plus puissant de ces modèles d'IA GPT-4. Ils peuvent être ceux qui disent : « Eh bien, nous savons comment contrôler cela parce que nous sommes les seuls à y avoir accès. Je veux dire, c'est l'un des problèmes avec ça. Je pense que s'il y a quelque chose de puissant, il y a un vrai argument selon lequel il devrait être possible pour beaucoup de scientifiques de l'étudier et de l'examiner. Ils n'ont en quelque sorte pas dit qu'ils pensaient qu'ils allaient l'ouvrir et le rendre plus transparent.

Lauren Goode : Et c'est le cœur du problème en Europe, avec Google, non ? Nous couvrions tous Google IO il y a quelques semaines, et l'une des choses qui en est ressortie est, oh, en fait, Bard, leur outil de chat IA génératif, n'est pas disponible dans les pays européens. Et certains de nos collègues se sont empressés de le signaler parce que la façon dont Google le présentait était un peu comme : "Voilà, voici cet outil qui change le monde." Mais il s'avère que de grandes parties du monde n'y ont pas accès, et c'est à cause du cadre réglementaire qui existe dans ces endroits.

Chevalier : Ouais, c'est une très grande question est de savoir si les États-Unis peuvent adopter une sorte de réglementation similaire où ils exigent plus de transparence. Mais j'ai lu une histoire aujourd'hui où il disait que l'administration Biden est assez divisée à ce sujet, et il y a beaucoup de gens qui repoussent l'idée que nous devrions faire quelque chose comme ça parce que, encore une fois, parce qu'ils ne veulent pas contrecarrer cela. Nous l'avons vu avec d'autres technologies, comme les voitures autonomes. Ils ne voulaient pas du tout les réglementer parce qu'ils pensaient qu'il s'agirait d'une technologie énorme et incroyablement puissante, et que les États-Unis auraient une longueur d'avance. C'est compréhensible. Mais maintenant, nous sommes confrontés à de nombreuses questions sur la fiabilité de ces systèmes, et ils doivent introduire davantage de réglementations. Oui, je pense qu'il peut se répéter.

Lauren Goode : Selon vous, quelle est la probabilité que nous voyions une véritable réglementation autour de l'IA dans un avenir proche ?

Chevalier : Je pense que nous verrons une réglementation. Je pense qu'il y a clairement - qu'il y a une sorte d'appétit, et l'une des raisons pour lesquelles toutes ces choses sont en tension, c'est que les États-Unis, avec, disons, la Chine et l'Europe, tiennent à afficher leur position en matière de réglementation. Parce que si c'est vous qui définissez la réglementation, souvent elle est adoptée ailleurs. Et cela peut être une sorte de rôle de leadership. Je pense qu'il y aura des réglementations, mais je pense qu'elles seront très probablement assez faibles aux États-Unis, relativement les plus faibles. Et oui, la question de ce qui est vraiment intéressant. J'ai parlé à des cinéastes et des écrivains à Hollywood qui s'intéressent vraiment à l'IA, au type de menace que cela peut représenter, et ils pensent en quelque sorte à la falsification, à la falsification de l'IA, et je pense que l'une des plus évidentes concerne peut-être une sorte de réglementation des deepfakes, nécessitant une certaine restriction des deepfakes, ou des plates-formes pour ne pas autoriser leur distribution sans autorisation. Mais ce n'est qu'un petit aspect de toute une pile d'IA générative.

Lauren Goode

Lauren Goode

Julien Chokkattu

Personnel filaire

Michel Chaleur : Et je pense qu'une partie de cette réglementation viendra du secteur privé. Les plateformes imposent des règles sur ce qui peut être publié, les entreprises imposent des règles sur l'utilisation de leurs outils. Et ce n'est pas nécessairement de la réglementation, c'est juste de l'auto-confinement.

Chevalier : Exact, et souvent pas terriblement efficace quand les plateformes font ça ou quand les entreprises disent ça. Cela n'empêche pas les gens de faire des choses. Et certainement voir avec ces outils de manipulation d'images, ces outils de synthèse vocale, qu'il y a... Je veux dire, il y a juste une tonne de deepfakes vocaux qui circulent maintenant sur Twitter et de plus en plus de manipulations d'images et de vidéos, et ça devient de plus en plus facile à faire.

Lauren Goode: En fait, nous avons enregistré un épisode de Gadget Lab il y a quelques semaines seulement où notre producteur ici, Boone, a imité nos voix et sa propre voix, et c'était terriblement bon.

Chevalier: Oh wow.

Lauren Goode : Boone vraiment, il détient tout le pouvoir ici. Il a tout cet audio de nous qu'il peut simplement passer à travers un outil gen-AI, et ce serait la fin de nous. Will, vous semblez plutôt optimiste quant à la possibilité d'une réglementation ici aux États-Unis, ce qui, je suppose, me surprend à certains égards. J'ai tendance à penser que ces choses bougent plutôt lentement. Et à votre point précédent que peut-être certains de nos membres du Congrès ne comprennent pas entièrement la technologie, et cela crée-t-il une sorte de barrière pour que les choses avancent ? Mais il semble que vous pensiez que c'est une possibilité réelle.

Chevalier : Eh bien, je suppose que je me suis peut-être mal exprimé si j'avais l'air optimiste. Je pense que je suis optimiste et que j'ai l'impression qu'il y a beaucoup d'élan pour essayer d'avoir une réglementation. Je pense que quelque chose va arriver aux États-Unis, mais je soupçonne que ce serait très... Je soupçonne que ce serait probablement assez inefficace si c'est une mesure de mon...

Lauren Goode : Ouais, sauce faible. Prédiction de Will, régulation de la sauce faible.

Chevalier : Mais j'ai généralement été surpris par la rapidité avec laquelle l'UE et la Chine ont agi et les deux ont été en quelque sorte à l'avant-garde de la réglementation. Et je pense qu'il y a ceci, ce qui le motive serait moins - s'il bouge rapidement - peut-être serait-il moins question de "Oh, nous voulons vraiment nous assurer que cela se fait en toute sécurité" que simplement les États-Unis ayant leurs règles définies dans ce genre de discussion mondiale. Vous pouvez me faire un deepfake pour dire quelque chose de beaucoup plus articulé.

Michel Chaleur : Oh, ne t'inquiète pas. Nous allons. Nous allons.

Lauren Goode: Nous nous en occupons.

Michel Chaleur: Tout ce pour quoi nous utilisons cet enregistrement, c'est juste pour capturer votre voix, pour nourrir le modèle.

Chevalier : Droite. Ça a du sens. Fais-moi juste dire le plus de choses possible.

Lauren Goode : Bientôt, vous serez sur ce podcast tous les jours. Nous en ferons un podcast quotidien grâce à l'IA. D'accord. Faisons une autre petite pause et nous reviendrons avec nos recommandations très humaines.

Lauren Goode

Lauren Goode

Julien Chokkattu

Personnel filaire

[Casser]

Lauren Goode : Will, j'ai hâte d'entendre la tienne, parce que c'est probablement lié aux chats. Quelle est votre recommandation cette semaine ?

Chevalier : Je vais maintenant vous laisser tomber. J'aimerais avoir une autre suggestion liée aux chats. Je veux dire, je veux juste, les chats sur TikTok sont toujours... Mon flux est à peu près tous les chats.

Lauren Goode: C'est votre go-to.

Chevalier : Juste des chats. D'ACCORD. Je vais recommander le livre Antimatter Blues d'Edward Ashton. C'est une suite à Mickey7, qui est en train d'être transformé en film. Il s'agit d'un clone et c'est une sorte de clone malheureux et de ses aventures dans une colonie hors du monde. Oh, en fait, puis-je également recommander une émission télévisée intitulée Fired on Mars, qu'un de mes amis a réalisée ? C'est à propos d'un type qui part, c'est un graphiste qui travaille dans une colonie martienne et il se fait virer et se retrouve dans toutes sortes d'égratignures.

Lauren Goode : Travaille-t-il pour Elon Musk ? Parce que cela aurait beaucoup de sens.

Chevalier: Cela aurait du sens.

Lauren Goode: Et où les gens peuvent-ils trouver cette émission de télévision ?

Chevalier: C'est sur HBO.

Lauren Goode: Oh d'accord.

Chevalier : C'est en fait sur Max. Désolé, je me suis complètement trompé.

Michel Chaleur : Oh, ne t'inquiète pas. Tout le monde se trompe complètement.

Lauren Goode: Nous l'appelons toujours HBO dans cette émission.

Michel Chaleur : Ouais. FKA HBO, maintenant Max.

Lauren Goode : Nous allons juste lui donner un symbole éventuellement. Eh bien, les deux semblent délicieux. Merci pour cette recommandation. Ces recommandations, au pluriel, Will. Mike, quelle est votre recommandation ?

Michel Chaleur: Eh bien, cela n'a rien à voir avec les voyages dans l'espace ou l'intelligence artificielle, mais je vais recommander...

Lauren Goode: C'est des cornichons ?

Michel Chaleur: Oh, ça pourrait être adjacent au cornichon.

Lauren Goode: Qu'est-ce que c'est?

Michel Chaleur: Enveloppe d'abeille.

Lauren Goode: D'accord, dis-en plus.

Michel Chaleur : D'ACCORD. C'est wrap, WRAP.

Lauren Goode : Oh d'accord. Je pensais que c'était juste un groupe d'abeilles...

Michel Chaleur: Rapper ?

Lauren Goode : ... rapper. Avez-vous entendu le buzz autour de leur dernière chanson ?

Michel Chaleur : Oh non. Non non Non Non Non.

Lauren Goode: D'accord désolé.

Michel Chaleur : Permettez-moi de cirer philosophiquement. C'est du film alimentaire. Il remplace le film plastique ou les sacs en plastique ou tout autre type de plastique à usage unique que vous pourriez utiliser pour conserver les aliments dans votre réfrigérateur ou dans votre cuisine. C'est une feuille de coton enduite de cire d'abeille et d'huiles végétales, et elle forme en quelque sorte un joint autour de tout ce que vous voulez protéger. Vous pouvez le mettre sur un bol de houmous ou un bol de salsa. J'en ai utilisé un petit pour envelopper une demi-courgette ou un demi-oignon. Si vous n'utilisez que la moitié d'un légume, normalement, vous mettez simplement une pellicule plastique autour de celui-ci. Mais le plastique est terrible comme nous le savons. Il reste dans les décharges et se dégrade très, très lentement en petits morceaux de plastique qui se frayent un chemin dans les cours d'eau et finissent dans nos estomacs. Nous devrions tous arrêter d'utiliser du plastique et voici une excellente façon de le faire. Ceux que j'ai rencontrés, parce que nous avons écrit à leur sujet sur WIRED, nous les recommandons en fait comme l'un de nos produits écologiques préférés, et nous devions les prendre en photo. J'en ai acheté sur The Everything Store. Je pense que c'est 17 $ pour un pack de trois. Le pack de trois est livré avec un petit, un moyen et un grand, ce qui est à peu près tout ce dont vous avez besoin.

Lauren Goode

Lauren Goode

Julien Chokkattu

Personnel filaire

Lauren Goode: Cela dépend de la taille des abeilles.

Michel Chaleur: Cela dépend de la taille de la ... non.

Lauren Goode: Désolé, mon cœur bat la chamade rien qu'en entendant parler de ça.

Michel Chaleur : Je suis sûr. Je suis sûr.

Lauren Goode : Je sais que ces blagues piquent probablement vraiment. Continuez s'il vous plaît.

Michel Chaleur: Je me sens tellement vaincu en ce moment.

Lauren Goode: J'utiliserai la pellicule de cire d'abeille.

Michel Chaleur: Ouais, c'est comme ça que ça s'appelle Bee's Wrap.

Lauren Goode: Enveloppe d'abeille.

Michel Chaleur : Il existe plusieurs entreprises qui fabriquent cela. Je vais recommander Bee's Wrap car c'est celui que j'ai acheté qui me plaît. Et c'est un pack de trois pour moins de 20 $. Vous pouvez l'acheter dans les épiceries hippies ou vous pouvez simplement l'acheter sur Internet. Mais c'est super. Je les utilise tout le temps. Et je dirai que si vous les lavez, ce que vous devriez faire entre les utilisations, lavez-les à l'eau froide, car les laver à l'eau chaude les abîmera car cela fera fondre la cire d'abeille et tout s'écoulera dans votre évier.

Lauren Goode: Cette recommandation est à genoux.

Michel Chaleur: Lauren, je pense que je devrais éviter à tout le monde d'autres jeux de mots sur les abeilles en vous demandant quelle est votre recommandation.

Lauren Goode : Ah très bien. Minute de silence pour la fin de Succession. Super. Ceux d'entre vous qui ont écouté notre podcast savent qu'il y a plusieurs semaines, je vous ai recommandé de regarder Succession, la saison quatre venait de commencer, et j'ai dit de la regarder depuis le début afin que vous puissiez vous emmêler complètement avec la famille Roy et vous sentir émotionnellement attaché à ce programme du dimanche soir sur la chaîne anciennement connue sous le nom de HBO. La finale de la saison a eu lieu la semaine dernière, c'était une télévision épique et épique. Mais si vous vous sentiez comme si je me sentais après, juste un peu vide et que j'en veux plus, et maintenant je fais défiler Instagram à la recherche de mèmes Succession et j'envoie un texto à tous mes amis et je dis: "Oh mon dieu, avez-vous vu ce qui s'est passé à la fin?" Vous devriez écouter le podcast Succession. Ouais. Divulgation complète, la personne qui anime ce podcast, Kara Swisher, je la connais assez bien. Elle prend parfois ma place de parking, ce qui est une toute autre histoire. Mais j'avais l'habitude de travailler avec Kara, c'est une intervieweuse de podcast fantastique, et elle a un podcast pour HBO qui est le podcast de suivi de Succession chaque semaine que vous pouvez écouter. Et donc cette semaine, elle a eu des entretiens avec Alexander Skarsgård, Jeremy Strong et Mark Mylod, deux des acteurs du programme, puis le réalisateur. Vous devez vérifier. C'est bien. C'est juste le genre de contenu supplémentaire de Succession dont vous avez besoin, si vous, comme moi, pleuriez la fin du programme.

Michel Chaleur : C'est donc une bonne recommandation. Et des accessoires à Kara, et des accessoires à tous les journalistes qui font ces podcasts sur les émissions, mais je suis un peu sur le fait que l'émission a un podcast.

Lauren Goode

Lauren Goode

Julien Chokkattu

Personnel filaire

Lauren Goode: J'ai tendance à être d'accord, sauf pour ce spectacle.

Michel Chaleur : Donc cette émission est celle qui te donne envie d'en savoir plus, et ce que tu veux le plus, c'est bavarder sur l'émission ? Et s'ils peuvent faire un podcast bien produit, alors c'est quelque chose que vous écouterez.

Lauren Goode : C'est vrai, parce que beaucoup de podcasts sur les émissions de télévision, et sans les discréditer, mais ce sont des émissions de fandom. C'est quelques personnes qui sont vraiment, vraiment dans le programme comme moi, et ils sont juste assis autour d'en parler comme des copains. Kara peut en fait parler à Brian Cox, ou au réalisateur ou à l'écrivain, ou à certaines des stars de la série. Et donc vous êtes comme, vous entendez directement d'eux comment ils développent leurs personnages et comment ils pensaient aux intrigues. Et j'apprécie vraiment ça.

Michel Chaleur: Alors Kara a ce truc que j'appelle la machine, c'est quand elle t'interviewe, tu as l'impression de sentir sa présence.

Lauren Goode : Vous avez été en sa présence. Nous avons été en sa présence, et vous le savez.

Michel Chaleur: C'est une intervieweuse très énergique.

Lauren Goode: Elle est.

Michel Chaleur: C'est une très bonne intervieweuse, dans le sens où elle fait parler ses sujets d'interview de choses dont aucun autre intervieweur n'est capable de les faire parler.

Lauren Goode : Tout à fait. Elle est très douée pour identifier les faiblesses des gens et aller de l'avant dans le podcast. Et c'est différent, je pense que lorsque vous interviewez des dirigeants de la technologie, comme elle le fait tout le temps où ce sont des gens dans des positions extrêmes de pouvoir et que vous êtes en quelque sorte, vous frappez et vous leur posez les questions très difficiles sur la façon dont ils dirigent leurs entreprises, par rapport à quand vous pouvez également être un intervieweur mais un fan et parler à quelqu'un qui est complètement dans son élément créatif en faisant une émission. Je pense que c'est une ambiance légèrement différente.

Michel Chaleur: Alors, est-ce un bon pitch pour vous de faire l'un de ces trucs la prochaine fois ?

Lauren Goode : Non, je n'ai pas le temps, honnêtement. J'aimerais bien dans un monde idéal, certainement. Mais j'ai déjà un autre podcast, au cas où vous ne le sauriez pas, et j'ai déjà du mal à tout intégrer dans la journée. Non, je ne me porte pas volontaire pour un podcast d'émission télévisée, mais j'aime les écouter.

Michel Chaleur: Et si le co-hôte était Alexander Skarsgård ?

Lauren Goode : je suis en bas. Je suis ici. J'adore le Skarsgård.

Michel Chaleur: Parfait.

Lauren Goode : D'accord, eh bien, c'est tout pour notre émission. Merci beaucoup, Will, de nous avoir rejoints et de nous avoir détrompés de l'idée que nous nous dirigeons en ce moment vers un événement d'extension à cause de l'IA.

Chevalier: Eh bien, j'espère certainement que j'ai raison.

Lauren Goode : Moi aussi. Nous le faisons tous les deux. Et merci à tous pour votre écoute. Si vous avez des commentaires et que vous êtes toujours là, vous pouvez tous nous trouver sur Twitter, il suffit de vérifier les notes de l'émission. Nous aimerions recevoir de vos nouvelles. Notre producteur est l'excellent Boone Ashworth, l'homme très réel lui-même. Au revoir pour le moment. Nous serons de retour la semaine prochaine.

[La musique du thème d'outro de Gadget Lab joue]

Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Lauren Goode Michael Calore Lauren Goode Will Chevalier Lauren Goode Will Chevalier Michael Calore Will Chevalier Lauren Goode Will Chevalier Lauren Goode Will Chevalier Michael Calore Will Chevalier Lauren Goode Lauren Goode Will Chevalier Michael Calore Will Chevalier Lauren Goode Will Chevalier Lauren Goode Will Chevalier Michael Calore Will Chevalier Lauren Goode Will Chevalier Lauren Goode Will Chevalier Lauren Goode Will Chevalier Michael Calore Lauren Goode Michael Calore Will Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Will Knight Lauren Goode
PARTAGER