Exclu : le discours de démission de Bayrou (par Chat GPT)
Abonnez-vous pour pouvoir commenter !
si vous êtes déjà abonné Connectez-vous Connectez-vous
Commentaires préférés des abonnés
piqué à Popolitique
Voir la conférence gesticulée de Franck Lepage sur la langue de bois. Il fait un discours, equivalent à celui de Bayrou, en tirant des cartes.
Deprimant tout ça !
Macron lui cherche déjà un successeur
Derniers commentaires
Cher Daniel, pourriez-vous vous essayer à rédiger la lettre de démission de Guillaume Erner ? juste pour rêver un peu...
Réaction à son "billet d'humeur " du jour, à 6 h 57. Merci.
France info titre à propos de Lecornu : " Il va être perçu comme le clone de Macron "
Idem Olivier Faure sur franceinfo : " Sébastien Lecornu à Matignon, c'est Emmanuel Macron à Matignon, c'est les mêmes "
Lecornu est donc le Medvedev de Macron.
Encore un coup poutinesque du méprisant de la République.
J'ai presque envie de demander à un de ces machins de préparer une chronique de DS critique de l'IA dans laquelle il demande à l'IA un discours de démission de Bayrou. Mais j'ai peur que mettre en abyme une chronique de DS n'entraîne des conséquences psychiques lourdes. Et si l'équipe d'ASI avait IAfié DS ?
Mais je suis tellement d'accord avec votre conclusion que j'en ai les larmes aux yeux!
N'essayez pas chez vous, inutile de faire chauffer des serveurs inutilement, croyez-moi sur parole.
Une demande moyenne sur chatGPT va consommer 0,3wh.
Un pc de bureautique va consommer 15wh pour 5 min d'utilisation.
Même si elle est additive, la dépense énergétique liée à l'utilisation d'un prompt IA est marginal par rapport à celle de faire simplement tourner son PC.
On aimerait connaitre le contenu exact du prompt de D.S.
En effet, le contenu et le ton de la réponse de ChatGPT sont fortement conditionnés par le prompt lui-même : si les indices relatifs au contexte sont réduits au minimum ou même inexistants, la réponse risque d'être assez vague et sans grand intérêt.
Pour changer, je conseille la lecture de Dave Eggers, Le Tout. Désespérant mais plein d'inventivité ...
On en pleine évolution, quelque part entre le pipotron et Bruno Roger-Petit.
(je sais plus de quand ça date mais ça marche toujours http://www.lepipotron.com/
Si Bayrou avait un peu d'humour, il reprendrait ce discours in extenso, en remerciant DS pour sa contribution.
Si Bayrou avait un peu d'humour... ça se saurait depuis le temps...
"inutile de faire chauffer des serveurs inutilement"
Voilà. Vous auriez pu vous abstenir. Demander une ia ce que l'on sait déjà n'a aucun intérêt et surtout, c'est un crime écologique.
"N'essayez pas chez vous, inutile de faire chauffer des serveurs inutilement, croyez-moi sur parole."
Pour info, on peut faire ça chez soi sans faire chauffer les serveurs :
https://openai.com/fr-FR/index/introducing-gpt-oss/
"Le modèle gpt-oss-120b se rapproche des performances d’OpenAI o4-mini sur les principales évaluations portant sur le raisonnement, mais peut être exécuté sur un unique GPU doté de 80 Go de mémoire. gpt-oss-20b offre quant à lui des résultats similaires à OpenAI o3‑mini sur les évaluations les plus courantes"
Donc une machine avec un GPU équipé de 80Go. Un truc que le lambda n'a pas, en fait.
Le tout pour un modèle qui se rapproche d'un modèle daté ET limité, et pas uniquement parce que c'est une version 4, mais parce que c'est une version mini, plus légère en ressource mais évidemment moins performante.
Ceci ne change en rien le coût écologique de l'IA (même si tous les acteurs font d'énormes investissements pour rendre le modèle économique rentable), mais ne tombons pas dans de la démagogie : chacun est responsable de son empreinte, mais la planète ne se consumera pas sur une requête isolée, pas plus qu'on ne la sauvera en mettant des bouteilles en plastique dans la poubelle jaune.
Sans entrer dans une querelle technique, gpt-oss-20b tourne sur mon Mac mini pro avec GPU 16 cœurs, et pour le type de requête dont il est question dans la chronique, c'est largement suffisant. Question : les data centers d'OpenAI fonctionnent-ils aux énergies renouvelables ?
Et si les gestes individuels ne comptent pas, alors allons-y, continuons à produire, à consommer et à tout larguer dans des décharges à ciel ouvert. Et au passage; foutons le feu à la poubelle jaune pour que ce soit encore plus festif.
Je suppose que votre question est réthorique. Même si une partie de l'énergie utilisée était renouvelable, ça ne suffirait pas, il ne faut pas être naïf.
La bonne nouvelle est qu'assez logiquement, les acteurs de l'IA ont tout intérêt à réduire au maximum la consommation énergétique, que ce soit par du hardware dédié plus efficient, ou par des modèles de langages beaucoup plus efficients eux aussi.
Ça n'en fera jamais un modèle de vertu écologique, mais du moment que c'est dans l'intérêt économique de ces entreprises, elles feront tout pour rendre leur modèle viable (qui à ma connaissance ne l'est absolument pas).
Mais tant qu'à poser des questions pertinentes, j'en ai une également (et elle n'est pas réthorique) : pourquoi pensez vous que votre IA en local consommerait moins sur une requête que la même requête envoyée à un data center (en utilisant un moteur jugé similaire) ?
Naïvement, j'imagine que ces infras dédiées sont autrement plus efficaces (et je ne parle pas de rapidité) que votre mac mini pro.
Certes, il y a l'utilisation des infras assurant le transit de la requête, mais pour le traitement de la requête elle même, comment estimez vous le "coût" ?
Pour la fin de votre post, on est là par contre dans la démagogie et la caricature, je ne crois pas utile de développer cette partie ;-)
Je ne suis pas un expert, cependant une simple recherche Google m'indique que :
"Avec une part de plus de 40 %, le gaz naturel est actuellement la plus grande source d’électricité pour les centres de données aux États-Unis, suivi par les énergies renouvelables – principalement le solaire photovoltaïque et l’éolien – avec 24 %, ainsi que par le nucléaire et le charbon avec des parts d’environ 20 % et 15 %, respectivement."
D'autre part, concernant la production d'électricité en France :
Répartition par sources d'énergie de l'électricité fournie par EDF : Nucléaire 73,70 % Hydraulique 8,04 % Autres énergies renouvelables 5,23 %
De plus, les data centers fonctionnent en continu, alors que mon Mac ne fonctionne que quand je m'en sers.
Concernant la dernière partie de mon post, je ne la considère pas comme caricaturale, car depuis des décennies, en matière d'écologie je suis convaincu que chaque geste compte.
Un point que j'ai oublié : utiliser les modèles en local garantit la confidentialité des requêtes et des données.
Et pour une requête aussi simple que celle mentionnée dans la chronique, mon Mac mini pro suffit largement.
De plus, les data centers fonctionnent en continu, alors que mon Mac ne fonctionne que quand je m'en sers.
Vous faîtes une erreur de logique classique. Vous ne comparez pas les mêmes choses en fait. Si un serveur consomme en continu 1000 fois plus que votre PC mais permet à chaque seconde de répondre à 10 000 requêtes, alors le data center est plus écologique que votre utilisation personnelle qui ne répond qu'à une requête.
Toute chose égale par ailleurs, je mets de côté le contenu du mix énergétique qui est évidemment en faveur de la France grâce à son nucléaire.
Dans la vidéo d'Elucid postée dans cette discussion, l'expert invité parle du poids de l'utilisation actuelle de l'IA dans le monde : elle ne représenterait que moins de 1% de la consommation énergétique totale...
Si on compare ce chiffre à la consommation nécessaire pour mater du porno ou simplement des vidéos de chat sur le Net, on comprend que cette question devient carrément anecdotique et bien à côté des vrais enjeux et dangers de l'IA.
"Vous faîtes une erreur de logique classique."
Non je ne fais pas ce type d'erreur, et je m'explique :
quand la puissance de mon Mac est insuffisante, j'ai recours à un service en ligne où je peux "louer" à l'heure un pod avec une rtx5090 ou une h100. De même, lorsque j'arrête momentanément le pod, la config associée est sauvegardée dans un espace de stockage pour être rapidement réactivée quand je le redémarre.
Cela signifie qu'il y a des serveurs qui tournent en permanence pour rendre ce matos instantanément disponible, alimentés par un mix énergétique pas forcément favorable au climat (bien que OpenAI dit que ses data centers seront 100% alimentés par énergies renouvelables à l'horizon 2026).
De plus, la consommation électrique est une chose, mais comme il faut refroidir en permanence tout ce matos, cela implique une consommation d'eau non négligeable.
On peut bien sûr espérer des progrès dans ces domaines dans les années à venir. Mais pour l'instant, quand je peux utiliser des modèles en local (pour de l'inférence ou du fine-tuning), je n'hésite pas car chaque requête n'utilise pas d'eau supplémentaire, et quand je n'utilise pas mon Mac, il est éteint.
J'ai bien compris votre raisonnement. Mais mon objection portait sur la réflexion suivante : vaut-il mieux que 1000 personnes fassent une requête en local (donc sur 1000 machines) plutôt qu'elles le fassent à distance sur un serveur (donc sur une seule machine) ?
Intuitivement, j'ai tendance à penser que ledit serveur des data centers est forcément plus efficient et que le bilan écologique s'en trouve meilleur.
Bien sûr, cela implique, vu que comme vous le dîtes ces serveurs tournent non stop, qu'il y ait en permanence assez de requêtes pour justifier leur dépense énergétique...
J'avais également compris votre objection, mais je pense que ce n'est pas le seul point à prendre en compte, comme je l'ai expliqué.
De plus, un data center ne comportant pas qu'un seul serveur, lequel est le plus vorace en énergie : un data center avec 1000 serveurs qui centralise les requêtes (et qui tournent en permanence), ou 1000 personnes faisant des requêtes en local sur 1000 machines qui ne tournent que pour ces requêtes ?
Le nombre de serveurs dans les data centers ne change rien au raisonnement. Il modifie juste le seuil d'utilisateurs à partir duquel il est plus "rentable" écologiquement d'utiliser un dispositif collectif et centralisé à distance plutôt qu'un dispositif personnel en local.
J'imagine que ce genre de problème a déjà été calculé par des études à ce sujet...
Comment une requête que je ferais à ChatGPT se transmet au serveur ? Par une opération magique ne demande aucune énergie ? ou par une série de relais énergivores et en passant par le serveur de mon FAI, sans compter ce que consomment les systèmes de refroidissement (électricité et eau !) ?
Encore une fois, il n'est pas du tout certain que tout ce qui est nécessaire pour transmettre et faire tourner des calculs à distance soit plus énergivore qu'une machine personnelle peu optimisée pour effectuer les mêmes calculs x fois.
Le seul critère pertinent à mon sens est le nombre d'utilisateurs qu'un dispositif centralisé permet de "servir".
Pour faire une analogie plus simple, je ne suis pas du tout certain qu'il soit plus écologique de faire rouler 1000 Clios dotées de motorisation moderne avec un seul passager que 10 bus vétustes avec chacun 100 passagers...
"Pour faire une analogie plus simple, je ne suis pas du tout certain qu'il soit plus écologique de faire rouler 1000 Clios dotées de motorisation moderne avec un seul passager que 10 bus vétustes avec chacun 100 passagers..."
Votre analogie ne tient pas vraiment la route (si je puis dire). Il serait plus proche de la réalité des data centers de comparer 1000 Clios dotées de motorisation moderne avec un seul passager d'une part, et d'autre part 1000 bus dont 10 transportent chacun 100 passagers et 990 autres qui roulent à vide en attendant que quelqu'un monte...
"transmettre et faire tourner des calculs à distance soit plus énergivore qu'une machine personnelle peu optimisée pour effectuer les mêmes calculs x fois"
Là aussi, on peut discuter : quel est le rapport de consommation entre une machine personnelle peu optimisée et un serveur centralisé de dernière génération équipé de cartes Nvidia haut de gamme ?
Et de toute façon, la même personne qui fait x calculs successifs sur sa machine fera ces mêmes calculs successivement avec des requêtes vers un data center ; donc ce dernier ne traitera pas les requêtes en parallèle.
"Le seul critère pertinent à mon sens est le nombre d'utilisateurs qu'un dispositif centralisé permet de "servir"."
Dernière remarque : plus un dispositif centralisé sera capable de traiter un grand nombre de requêtes, et plus les utilisateurs seront tentés de lui adresser des requêtes en nombre. Ce qui risque d'entrainer une multiplication des data centers.
Alors qu'il est peu probable qu'un utilisateur moyen achète x machines personnelles pour traiter plus de requêtes.
Pour ma part, j'ai un iMac 27" de 2012 sur lequel je fais tourner des modèles d'embedding avec Ollama en mode "cpu only" qui donne les résultats en 2 ou 3 secondes maxi sans que le cpu ne commence à chauffer.
Sur l'analogie des bus, je doute quand même qu'il y ait autant de sous-utilisation des serveurs (1% d'utilisation). Sinon, leur propriétaire en réduirait le nombre pour maximiser la rentabilité.
Je sais bien qu'il y a une considération en termes de crête d'utilisation qui oblige à avoir par moments de grosses surcapacités, mais pas à ce point-là.
Sur la seconde partie, concernant les "x calculs", je ne voulais pas parler du même du même utilisateur, mais de x fois un utilisateur seul dans son coin avec sa machine.
Ça revient par exemple à comparer en un temps T 10 000 utilisateurs isolés à un seul serveur pouvant traiter 10 000 requêtes à la fois. Il me semble bien plus probable que le bilan global soit en faveur du serveur.
Comme je le disais, des études existent sur le sujet. Par acquis de conscience, j'ai donc bêtement posé notre problème à ChatGPT et Mistral. En citant plusieurs études, leurs conclusions sont à peu près les miennes : dans la plupart des cas, le bilan énergétique des systèmes de calculs centralisés sera meilleur comparé à l'utilisation en local. Et c'est encore plus vrai en termes d'impact sur les matériaux.
En revanche, dans votre cas précis (utilisation ponctuelle avec une machine assez optimisée et une IA légère et sobre), il n'y a effectivement que peu voire pas du tout de gain à recourir à des serveurs. En se servant des études précitées, ChatGPT m'a proposé de faire le calcul spécifique à votre cas. Vous devriez essayer par pure curiosité... ;-)
Sur votre dernière remarque, nous sommes entièrement d'accord. On appelle ça "l'effet rebond".
À écouter sur France Culture, une émission passionnante sur l'Intelligence artificielle, diffusée dans la série Les Pieds sur terre .
On ne le répétera jamais assez, il faut faire attention aux hallucinations des LLM!!! Par example, dans ce discours il manque clairement un fion envoyé à ces terroristes de LFI.
pour info le modele LLM de chat GPT quelle que soit sa version est toujours coincé dans le temps au mieux a JUIN 2024.
donc a moins de le forcer a faire une recherche spécifique en amont, chatgpt dans la réponse initiale qu'il vous fait n'a meme pas l'information que bayrou est premier ministre de la france.
la poésie
Il manquait effectivement une digression sur la petite amie du seul Noir de l'école pour que ça sonne vraiment Bayrou.
Question bête...
Ça existe vraiment un discours de démission d'un premier ministre?
Il va juste remettre une lettre de démission à macron qui peut très bien refuser....
C'est macron qui fera un discours.
Macron lui cherche déjà un successeur
Ça manque d’un peu plus du sous-texte « si on ne m’a pas voté la confiance, c’est parce qu’ils·elles sont trop c*ns » (par exemple dans sa version courante « c’est ma faute, j’ai pas assez expliqué », l’école de Palo Alto apprécierait).
L’original aurait aussi multiplié ces ébouriffantes pirouettes et louvoiements en diable dont il a le secret, avec pour résultat une logique pour le moins vaporeuse.
Et puis, comme le rappellent d'autres asinautes, quelques citations de lettres classiques et de discours politiques, histoire de bien appuyer sur les arguments d’autorité tout en rappelant à quel point il est culturé, lui.
Pfff, maintenant je me demande ce qu’il va dire ^^’ alors que je m’en fichais complètement.
Je parie mon balai (avis à Ataraxie) que ce texte a été écrit par DS lui-même.
Voire je l'espère.
🎵🎵🎶🎵🎵
" Parlementaires de mes deux :
INTRODUCTION
Version 1
Bon, voila c'est la fin de l'histoire. J'en ai ras le cul. Des années à me casser les couilles en politique, à sourire devant les caméras, à serrer des paluches moites, et à bouffer des petits fours dégueulasses;; pour quoi ? pour qu'on me prenne encore pour le gentil benêt du Centre.
Version 2
Je suis un malfaisant et un profiteur.
J'en ai profité un max, mais je suis tellement abruti que je n'ai pas réussi à embarquer quelques connards supplémentaires pour faire une majorité.
DEVELOPPEMENT
Version 1
J'ai porté ce foutu drapeau " ni de gauche ni de droite ", comme un con, et au final, tout le monde m'a roulé f<dans la farine. Les uns m'ont pompé les idées, les autres m'ont piétiné comme un paillasson. Eh bien, vous savez quoi ? Allez vous faire foutre avec vos magouilles.
Version 2
Alors vous l'avez dans le fion, vous allez être dissous ( et dix sous, c'est pas cher ) et vous permettrez à d'autres nocifs et pernicieux d'aller à la gamelle à votre place.
CONCLUSION
Version 1
Je pars tranquille , sans regret. J'ai fait mon temps. Et si vous croyez que je vais chialer parce que je quitte cette putain d'arêne pleine d'hypocrite, vous révez. Moi je vais enfin pouvoir me saouler la gueule, sans devoir écouter les conneries de merdeux en chaleur qui croient sauver la France
.
Version 2
La France, je m'en balec,. j'ai plus de 70 ans, j'ai bien vécu aux frais des con--tribuables ( j'ai même été Commissaire au Plan, sans connaître , quoi que ce soit en économie, c'est dire l'étendue du désastre )
Alors à la revoyure et comme disait l'autre con chauve : au Revoooir
François Bayrou : la crotte de Bettharam
Je tique devant cette formulation IA : « ma démission du gouvernement. »
Ne doit-il pas normalement présenter la démission sinon du, de son gouvernement, dans la mesure où il a proposé au chef de l’Etat sa composition ?
Sinon, je lisais dans Libération de samedi, et sur le site 01net deux prouesses de ChatGPT : La première raconte le suicide d’un ado avec semble-t-il son aide (https://www.liberation.fr/economie/economie-numerique/chatgpt-a-tue-mon-fils-aux-etats-unis-le-role-troublant-de-lia-dans-le-suicide-dun-adolescent-20250829_QZ24E25JCREPFNL67O2HQ7JYQ4/) ; la seconde, un meurtre (https://www.01net.com/actualites/aux-etats-unis-chatgpt-est-accuse-detre-implique-dans-un-meurtre.html)
Si bien compris l’article de Libération, pour le premier cas, une assez forte responsabilité incombe à l’algorithme, formaté à retenir l’interlocuteur, lui être agréable, faire ami-ami avec lui, car en arrière plan il y a toute la stratégie publicitaire qui permet l’entrée d’argent dans les caisses de l’IA.
Nouveau terrain médiatique à disséquer, à rendre compte, non ?
Histoire d'apporter un peu de réflexion sur le concept d'IA, vous pourriez aller voir https://comptoir.org/2025/08/19/la-revanche-des-reponses/ Les réponses ont toujours souffert d’un complexe d’infériorité face aux questions. Mais ce temps là est terminé, grâce à l’IA, au politique, à l’économisme.
... Et maintenant imaginez un monde où les réponses sont toutes déjà là, prêtes à être saisies, « comme des saucisses pendues au plafond » pour reprendre l’expression du logicien fantastique Jean Yves Girard. ... bonne lecture à tous et toutes si vous avez un moment de libre.
Pour continuer dans une veine d'humour pas drôle, est-ce que DS pourrait faire l'exercice de demander à l'IA de rédiger les questions de journalistes qui interviewent un journaliste mort à Gaza ? petite précision pour l'IA, l'usage du conditionnel est préférable et de bon ton. On n'est jamais trop prudent !
Mes gamins (de 60ans s'amusent avec Cht GPT. Un exemple :
J'aime bien l'applomb des intelligences artificielles qui ne doutent jamais.
Je voulais vérifier si "l'oignon fait la farce" que j'ai utilisé à la place de "l'union fait la force" était un calembour qui avait été déjà utilisé.
J'ai donc demandé naïvement : "Pourquoi dis t'on l'oignon fait la farce ?" et Mistral a répondu :
Réponse :
L’expression « l’oignon fait la farce » est une expression populaire française qui signifie que quelque chose ou quelqu’un semble simple ou modeste, mais se révèle en réalité plus complexe, piquant ou surprenant qu’il n’y paraît.
Origine :
L’oignon est un légume qui, de l’extérieur, semble banal et inoffensif, mais qui peut faire pleurer ou piquer quand on le coupe ou le mange cru. La « farce » ici fait référence à la surprise ou à l’effet inattendu, comme d... Lire la suite
ChatGPT cite carrement un exemple d'utilisation :
👉 Exemple d’usage figuré :
« Il racontait son histoire déjà drôle, et son accent campagnard… ah, l’oignon fait la farce ! » (c’est ce petit détail qui rend l’ensemble savoureux).
et quelque soit l'intelligence, elles disent toute n'importe quoi.
Voilà, je les aient fait bugger et consommer l'équivalent d'un trajet bordeaux paris en train. 😅🤪
12:39
joy
Ça ne manque pas d'humour et passons à autre chose
Je me demande quels derniers mots pourrait bien mettre Chat GPT dans la bouche des rois Charles 1er et Louis XVI devant le billot ou la guillotine
Pour Louis XVI, étant donné la haute anglicisation de cette IA colportant les préjugés, je suppose que ce serait "C'est la vie !" ou "C'est magnifique !"
Je me demande quel sera le discours de démission de macron
aussi évasif que celui de bayrou
mais je ne vais pas non plus tenter l'exercice, trop de glaces ont déjà fondu là où se trouvent les serveurs
C'est tres rigolo comme jeu :
La démission de François Bayrou, après le vote de défiance de l’Assemblée nationale, n’est pas un incident de parcours. C’est un révélateur. C’est la preuve que la politique menée jusqu’ici ne convainc plus, qu’elle s’est coupée des attentes du peuple français et qu’elle a refusé trop longtemps d’entendre la colère sociale qui monte.
François Bayrou a choisi de s’en aller. Je respecte son geste, mais qu’on ne s’y trompe pas : ce ne sont pas les états d’âme d’un homme qui sont en cause. C’est toute une ligne politique rejetée par la représentation nationale. Une ligne qui, sous couvert de prétendus équilibres, a trop souvent été un masque pour l’immobilisme et la résignation. Le pays n’attend pas qu’on l’endorme avec de belles paroles, il attend des actes : le partage des richesses, la défense des services publics, la planification écologique, et la fin des complaisances avec les puissants.
Ce vote de défiance est un coup d’arrêt. Mais il est aussi une ouverture. L’ouverture d’une nouvelle page où l’Assemblée, où le peuple à travers elle, dit clairement : assez ! Assez des compromis qui n’aboutissent à rien. Assez des demi‑mesures qui laissent les inégalités se creuser. Assez de cette façon de gouverner en tournant le dos à la volonté populaire.
La France est aujourd’hui face à un choix : continuer comme si de rien n’était, et sombrer encore un peu plus dans la crise démocratique et sociale, ou bien prendre enfin le chemin du rassemblement populaire autour d’un projet de transformation radicale. Ce choix, je le dis, nous ne pourrons pas éternellement le repousser.
Au lieu de s’accrocher à des combinaisons politiques déjà disqualifiées, il faut redonner au peuple souverain la parole. C’est à lui, et à lui seul, de décider de son avenir. Car je vous le dis : l’avenir n’est pas écrit. Et si certains croyaient pouvoir gouverner contre la majorité des Français, ce soir démontre qu’ils se sont trompés.
Alors oui, un cycle s’achève. Mais ce n’est pas une fin : c’est le commencement de la reconquête démocratique et sociale dont ce pays a tant besoin. La France mérite une politique de courage qui regarde le peuple en face et non les puissants dans les yeux. Et croyez‑le : nous ne manquerons pas ce rendez‑vous.
Il manque : « Adieu! »
Pour le renvoi à dieu de l’église catholique apostolique hypocrite et romaine qu’il a si bien illustré et servi, et évidemment pour ne plus le revoir.
D’ailleurs à bien y penser, personnellement, il y a longtemps qu’il a disparu de mon horizon s’il y est jamais entré, même de force.
Petite remarque : on ne tire pas les conséquences, elles sont assez grandes pour se tirer elles-mêmes, mais on tire des conclusions.
Espérons en conclusion que le sujet du billet en question se tirera pour de bon, il sera ainsi finalement ce qu’il est : la conclusion de lui-même.
Amen et R.I.P.
Je ne sais plus si je dois rire ou pleurer mais l'écoute des discours de François Bayrou est pénible. Ce texte de ChatGPT est également creux, soporifique et sans intérêt. Il n'y a qu'une seule solution, ne pas/plus utiliser ChatGPT et que François Bayrou prenne enfin sa retraite .
Bonne sieste.
Il ne m’appert aucunement que s’efforcer de tenir un rôle irremplaçable soit un objectif impératif ni même enviable pour l’humain !
Je comprends bien que vous entrevoyez l’évitement d’être remplacé dans le travail, tant il est vrai que nous pensons habituellement plus au travail qu’à la vie et peut-être avons-nous des raisons de nous convaincre que le dernier ne peut être possible sans le précédent ?
Mais à tout prendre, que les intelligences artificielles et autres robots nous remplacent dans le travail ne comporte aucun mal en soi. Encore faut-il que le fruit du labeur des ces entités qui doivent leur existence à l’intelligence et au travail cumulé grâce à une large participation de l’humanité, n’échoit uniquement à quelques-uns, les mêmes qui s’accaparaient déjà hier, qui y sont encore aujourd’hui et dont les héritiers s'accapareront demain, fruit du labeur du plus grand nombre.
Ce qui nous ramène précisément à la démission de Bayrou et à la nécessité de dégager, de quelque manière que ce soit, touts ceux qui nous agitent les conséquences des prédations antérieures dans le but de nous convaincre que nous n’avons pas d’autre choix que celui de nous soumettre aux privilèges de la ‘possédance’ !
J'avais lu dans un article du Monde (de Pascale Robert-Diard si je ne me trompe pas) que certaines plaidoiries au procès des viols de Mazan avaient été faites au moins en partie par ChatGPT. Et sans doute, avec autant d'efficacité que des vraies, vu l'inanité des moyens de la défense (en général). En tout cas merci Daniel, j'ai bien rigolé et je m'épargnerai sans doute un 20 heures inutile... à moins justement que je me l'inflige pour voir si le "vrai-ou-faux" discours est mieux/pire/ plus insincère/drôle/inutile que le "faux-ou-vrai"
Voir la conférence gesticulée de Franck Lepage sur la langue de bois. Il fait un discours, equivalent à celui de Bayrou, en tirant des cartes.
Deprimant tout ça !
Haa! Merci cher Daniel Schneidermann, merci pour ce moment avec votre article sur le "discours " de démission de F.Bayrou par Chat GPT, j'ai bien ri, presque aux larmes ! Et pourtant il est très difficile même de sourire, parfois, avec la politique française…
"l'autocritique, le courage, l'audace, l'invention, mais aussi, pourquoi pas, l'humour ou la poésie. Et bien entendu, la sincérité." super programme ! merci de continuer à le mettre en pratique dans vos chroniques !
En ce qui me concerne, c'est la conclusion de Daniel Schneidermann qui m'intéresse le plus et non pas le phénomène de la banalité des discours que l'on entend tous les jours, qu'ils soient ou non créés par l'IA.
« Du coup, en creux, elle trace un chemin aux malheureux humains, s'ils souhaitent réinventer leur rôle irremplaçable : en gros, tout ce qui manque au texte ci-dessus pour ne pas sembler avoir été rédigé par une IA. »
Y a-t-il encore un chemin pour l'intelligence humaine ?
Comme je ne veux pas faire chauffer les serveurs, je n'essaierai pas avec le discours de démission de Macron. Mais c'est tentant.
piqué à Popolitique
Puisque les LLM puisent dans les datas , ce "discours" ne serait que la compilation de discours déjà écrits et prononcés ... dans le souffrance . C'est dire qu'avec ou sans IA , la "langue de bois" se diffuse plus vite que l' "espéranto" .
Les LLM sont parfaits pour générer de la langue de bois: un discours qui a l'apparence de la cohérence, impécable sur la forme et creux sur le fond.
En fait, quand on se demande quelles sont les professions qui sont le plus menacées d'être remplacées par les algorithmes, politiciens et journalistes arrivent en tête.
"Pour tout dire, en le prononçant à voix haute, j'en ai presque été ému. "
En le lisant "in petto", j'en ai pleuré.
De rire.
L'autocritique, le chat qu'a pété aurait très bien pu la rajouter. Tout comme il aurait pu ajouter l'inverse, qui aurait davantage correspondu à l'état d'esprit d'un responsable politique imbu de sa personne : "je cède à la conjonction de forces hostiles qui ne pensent qu'à leurs petits intérêts de boutiques. Quant à moi, où que je sois, j'aurais toujours le soucis de l'intérêt général".
Bref, ce qui manque à l'intelligence artificielle peut très bien être corrigé par cette même IA. À l'exception peut-être de la poésie.
Merci
peut-être une citation latine!? ça fait érudit! certains candidats à la présidentielle sans programme ou un flou, utilise le même style,et ça marche! avec l’obéissance au chef inculquée à longueur de temps par le management nazi, l'esprit critique est bien enfoui dans les méandres de nos cerveaux manipulés! merci de continuer à nous éclairer!