179
Commentaires

Intelligence artificielle : "on plaque des solutions technologiques sur des questions sociales"

L'intelligence artificielle déferle sur le monde. Pas un jour sans qu'une dizaine d'articles expliquent quel nouveau champ elle s'apprête à révolutionner. Et pourtant, elle apparait toujours aussi absconse : y a-t-il "une" intelligence artificielle, ou plusieurs, appliquées à des taches précises? Est-elle vraiment intelligente? Au point de pouvoir, potentiellement, s'en prendre à ses créateurs? Et surtout, quels défis pose-t-elle à la société, en termes d'emplois et de responsabilité politique? Pour répondre : Laurent Alexandre, chirurgien urologue, entrepreneur fondateur de Doctissimo, auteur de La Guerre des Intelligences (JC Lattès) ; Jean-Gabriel Ganascia, chercheur en IA et professeur à l'université Pierre et Marie Curie, auteur de Le Mythe de la Singularité (Seuil) ; Tiffany Blandin, journaliste indépendante auteur de Un monde sans travail? (Seuil/Reporterre) et Irénée Régnauld, fondateur de l'association Le Mouton Numérique qui questionne les aspects politiques de l'innovation, et auteur du blog Mais où va le web?

Derniers commentaires

excellente émission, les intervenants sont remarquables. merci.
Cher Daniel,

J'ai vraiment été très surpris par votre attitude lors de ce débat passionnant mais compliqué. J'ai trouvé que vous n'avez pas laissé à Mr Ganascia assez la parole et l'avez coupé à des nombreuses reprises en coupant les logiques argumentaires.
Bien entendu, aucune animosité dans ce commentaire. Je vous remercie d'avoir organisée ce débat sur un sujet important. Je remercie également Capucine d'avoir préparé cette émission et qui aurait pu éventuellement avoir davantage la parole.
Bref, un très bonne émission comme d'habitude mais quelques commentaires d'internautes exigeants pour le journaliste exigeant que vous êtes. ;-)
Bonne soirée.
Qu'est-ce qui fait le plus peur, l'intelligence artificielle ou la bêtise naturelle ?
Blague à part, tout ces futurs hypothétiques s'inscrivent dans un monde fantasmé basé sur celui d'aujourd'hui. Or, pour ne prendre que l'exemple des structures multicouches capable d'apprendre en permanence, leur réalité matérielle est basé sur des métaux rares.... Quelle durabilité d'un tel dispositif si ce n'est basé sur de nouvelles guerre des ressources ? (c'est vrai qu'en la matière, on en manque...).

Bon futur à tout le monde.
Bonjour à tous.tes

Je viens de lire trois nouvelles de science-fiction d'une autrice qui se pose des questions sur l'avenir avec des robots partout, nouvelles que je trouve très pertinentes.

Elles sont publiées sur le site «Et si Platon avait tort ?»

La deuxième aborde le rôle critique que doivent garder les humains, et notamment leur rôle politique. Elle aborde aussi la question de savoir comment résister, c'est vraiment très bien.

Et pour ne rien gâcher, il est prévu une nouvelle par semaine, bonne lecture.
c'est beau la foi, surtout la foi en la Science.
Alexandre, c'est le fils de Finkielkraut ?

Je demande parce qu'il a une voix très proche, des intonations tout à fait similaires, et un peu le même regard !

Et puis il a aussi cette manie de dire " l'école" ou "l'éducation nationale" pour parler de la formation professionnelle ou des études supérieures, ... pour un type qui réclame ( à juste titre) davantage de finesse et d'analyse c'est une imprécision disons... agaçante.
Laurent Alexandre est un très bon bateleur d'estrade. Je l'ai vu demander à une assistance interloquée de regarder son voisin en expliquant que soit nous, soit lui aurait un cancer dans 10 ans et que l'IA pourra nous soigner plus efficacement. Sur le développement biologique de l'Intelligence, Il y est favorable. Promoteur des NBIC (« l'infiniment petit (N), fabrication du vivant (B), machines pensantes (I) et l'étude du cerveau humain (C) Neurosciences) le jour, il les critique la nuit. Un message ambigu. Pour l'heure l'IA est très imparfaite et n'est pas transversale mais elle sera un jour très puissante, à un degré que personne ne peut imaginer aujourd'hui. Au regard de l'histoire depuis la révolution industrielle, on peut être sceptique sur une réflexion profonde et concertée sur l'utilisation des NBIC dans l'intérêt général. Alexandre souligne à juste raison qu'aucun politique ne connait réellement les nouvelles technologies et leur impact.
Pas inintéressant comme émission mais je l'ai regardé par intérêt pour le livre de Tiffany Blandin et le thème de l'emploi face à l'IA, et l'autrice n'a jamais pu placer un mot... seule femme sur le plateau elle s'est fait couper la parole à chaque fois et au final les conséquences de cette révolution technologique sur le travail ont été à peine abordées.

Je crois que le nombre maximum d'invités pour une émission réussie c'est 3. Au delà c'est souvent confus.
Je n'ai rien lu des commentaires, mais je n'ai rien compris des 3/5 premières minutes de votre journaliste ; le plus triste, c'est d'avaler les mots de fin de phrases...
Bonne soirée
Dans le même contexte , mais le dénonçant , ceci : https://www.youtube.com/watch?v=fV7YQgoUnko
Bonjour à tous.

Pardonnez moi mais le post va être un peu long

J'ai arrêté lorsque Ganascia a commence à mélanger projection/émotion/ conscience etc... Le gars ne sait pas ce qu'est le phénomène de la conscience... Non, La conscience ne se réduit aps à projeter dans un aspirateur de l'âme (c koi ce genre d'ineptie??) ou se rendre compte de ses émotions... Il y a dans son discours une ignorance pour les travaux philosophiques qui est carrément affligeante voire cocasse si on ne se sent pas concerné...
La conscience est une capacité singulière qui consiste en fait à savoir savoir. C-à-d : je suis conscient de ce que je suis lorsque je sais qui je suis et je sais que je le sais. Je suis conscient en ce moment même car je puis me regarder faire et le verbaliser piisque je suis capable d'écrire qu'en ce moment même je poste un message sur le forum d'ASI...
Ça veut dire que je suis capable d'énoncer des propos autoréférentiels c-à-d qui se réfèrent à moi-même sans me contredire et en sachant que je ne parle pas d'un autre que moi-même.
Un ordinateur est capable de progresser en intégrant d'autres informations sur le sujet programmé, mais... il ne sait pas qu'il progresse... Il s'agit d'une opération mécanique, automatique, mais l'ordinateur ne produira jamais un énoncé victorieux à son utilisateur du type : yes!! J'ai compris... L'ordinateur ne SAIT pas ce qu'il fait.
Un autre ex : vous avez la formule mathématique pour résoudre des équations avec exposant 2... Et puis on vous donne à résoudre une équation cubique avec la même formule. Vous allez vite vous apercevoir que ça ne marche pas. Soit vous êtes un super matheux et vous retrouvez tout seul la formule ou vous demandez à un prof de maths. Vous sortez du système pour chercher un autre chemin. L'ordinateur lui, muni d'un algorithme erroné ne sort pas du système pour chercher autre chose : il bugue.

Tout cela pour dire que jamais, au grand jamais un ordi ne pourra atteindre la conscience de soi. Si une machine atteint ce stade, ce ne sera pas un ordinateur mais autre chose qui ne fonctionnera pas avec des algorithmes mathématiques ou logiques.

Pourquoi? Pour répondre à cela il faut un peu d'histoire et ne pas se laisser submerger par les superstitions générées apr une superstition infantile face aux machines.
les grecs avaient découvert un paradoxe logique qui a emmerdé les matheux et les logiciens depuis 25 siècles jusqu'à Godel qui a résolu la chose. Ce paradoxe est celui d'Épiménide le Crétois qui dit tous les crétois sont menteurs. Epiménide ment-il ou dit-il la vérité? Le paradoxe consiste dans le fait que s'il ment il dit vrai et s'il dit vrai il ment. C le type d'énoncé que l'on appelle des indécidables car ce sont des énoncés autoréférentiels, un vrai fléau logique pour toute IA. C Godel qui résoudra ce mystère logique en 1931 avec son fameux théorème de l'indécidabilité dans un système axiomatique. Je passe les détails. je passe directement aux conséquences :

Une IA ne peut pas accéder à la conscience de soi du fait que tout système axiomatique authentiquement valide comportera toujours des axiomes indécidables et c'est même cette qualité particulière qui en assure la validité mathématique. Un système axiomatique ou tout serait démontré serait un système faible... Le coup de génie de Godel c'est de l'avoir démontré mathématiquement. C'est irréfutable, ça a cassé Hilbert, Russel et tous les mathématiciens qui entretenaient la croyance d'un système mathématique ou enfin tout serait démontré. C juste impossible. La conséquence informatique c'est qu'aucun algorithme informatique ne pourra modéliser la capacité autoréférentielle de la conscience. Une machine consciente genre Matrix ou Terminator/Skynet n'est rien d'autre que de la superstition technologique.

J'arrête là. Celui qui a montré cela est un physicien Douglas Hoftstader qui est une autorité ondiale en la matière et qui refuse toute accointance, association ou échange avec les GAFA qu'ils méprise de par l'usage qu'ils font de l'IA. Il a écrit un livre génial prix Pulitzer 1978 et un best seller mondial. Voici le lien : ici

Cordialement à tous.
pour ceux qui veulent poursuivre les débats
La gouvernance de l’intelligence artificielle ; Une consultation publique mondiale
du 7 septembre 2017 au 31 mars 2018
Emission plutôt intéressante.

Par contre ce qui me paraitrait logique, c'est qu'une société bien organisée qui utilise de plus en plus de robots et d'intelligence artificielle devrait diminuer progressivement le temps de travail.
Si le progrès technique ne permet pas de vivre mieux en travaillant moins, alors il est inutile. (ou bien il est utile, mais pour une minorité de gens qui profitent seuls de ces gains, pendant que les conditions de vie des autres se dégradent)

Il ne me semble pas que cet aspect ait été évoqué par les intervenants de l'émission.
ok. heureusement qu'il y avait Irenée Regnauld pour relever un peu le débat et l'emmener sur des enjeux un peu plus politiques et philosophiques, on se serait bien épargné toute l'éducation de Daniel Schneidermann sur l'IA (qui n'as par ailleurs pas cessé de couper la parole aux invités, je croyais que sur internet on avait le temps) et les élucubrations expeditives d'Alexandre, qui a monopolisé la parole (en gros, "c'est pas idéal, mais y a pas d'alternative, d'ailleurs les chinois le font déja"). Regnauld a d'ailleurs commencé à aborder un point très intéressant qu'il a jamais pu terminer, qui pour moi tiens de l'évidence, "pourquoi vouloir à tout prix remplacer les emplois perdus grâce à l'automatisation / aux algorithmes" qui revient simplement à "c'est quoi le travail? et dans quels conditions?" Il a très peu parlé et c'est bien dommage parce qu'il avait des choses très interessantes à dire.
sur son blog que je découvre on parle de l'excellent Gilbert Simondon (mort dans les années 80), philosophe des techniques, qui nous propose de sortir de la dialectique admiration béate / rejet et crainte des objets techniques, qui relèvent dans les deux cas de la mystification totale, pour s’intéresser à l'essence, au sens ontologique, des objets techniques.
http://maisouvaleweb.fr/innover-avec-gilbert-simondon-ou-comment-reapprendre-a-faire-aimer-les-machines/
Demain l’intelligence artificielle remplacera Bach, Mozart, Beethoven, Vivaldi (mon quatuor à moi..., ma playliste pour parler actuel), elle composera de nouvelles Venus sortant de l'eau, elle expédiera aux oubliettes les De Vinci, Michelangelo, la liste serait trop longue, elle philosophera mieux que les Socrate, Platon et autre Nietzsche, et alors que sera l'Homme ? Quelle place lui sera dévolue ? Ne se pourrait-il pas qu'il devienne encombrant avec sa sale manie de se reproduire ?
Merci pour tout.
Vous m'avez rajeuni de trente ans voire plus. Déjà" l'intelligence artificielle, "le contraire de la bétise naturelle, posait à ses parents le difficile problème du nom de baptème.

Une fois n'est pas coutume, je rends grâce à Germain Rital d'avoir clairement posé ce problème de nom de baptème.

Car il ne s'agit pas d'intelligence, si tant est que nous soyons capables de donner une définition opératoire du mot intelligence. A ce sujet , D. Trump semble avoir quelques idées.

Peut-être, j'insiste sur le peut-être, n'est-ce qu'un avatar du balai qui travaille tout seul.l
Cette émission m'a plus intéressée que toutes les dernières qui commençaient à m'ennuyer un peu .....
Bonjour,
Je n'ai rien compris aux dix/vingt premières minutes de l'émission et j'ai arrêté.
Sur "l'intelligence artificielle", c'est un "concept" élaboré par les constructeurs informatiques, dont celui à trois lettres, dans les années 70... (et qui n'a en aucun cas le sens de "concept philosophique").
Il n'y a pas d'intelligence dans un programme informatique. Dans la pensée du programmeur, peut-être... C'est juste de l'artifice.
Je n'ai pas écouté l'émission mais vu la taille du forum, ça a l'air d'être intéressant.
En tout cas le sujet m'a fait une fois de plus m'interroger : Madame Truong, êtes-vous de la famille de Jean-Michel du même nom ?
Le sujet que vous venez de piloter rentre en résonnance avec ses romans (au demeurant bien désespérants).
- "Intelligence " du latin "intellegere" : "comprendre " ( il y a la même idée dans les 2 mots de lier des éléments épars )

- "conscience" du latin "conscientia" : "connaissance en commun" (connaissance partagée ) et aussi "conscience individuelle"



Il semblerait donc que l'intelligence serve à construire la conscience
Le sujet peut faire l'objet d'extrapolation. Par exemple: la plus belle intelligence artificielle pourrait être le corps humain conçut pour nous permettre de vivre sur terre. l'Univers selon certaines thèses est né d'une information. Qui?
Ne négligeons jamais l'étymologie. La langue a son autonomie, elle nous parle autant que nous la parlons. " inter legere", trouver le lien entre, l'un dans le divers, l'identique dans le différent, le même dans l'autre. On manque donc d'un contre-concept, la désintelligence, qui désignerait la démarche inverse, fréquente chez les écrivains, les artistes, les poètes ( " je est un autre").
"L'IA nous fais sortir de notre zones de conforts"

Laurent alexandre

On croirai entendre un manager, je ne suis pas abonné a ASI pour me taper des idéologue libéraux, qu'on se tape sur les plateux tv.
Laurent Alexandre = éxilé fiscal ! (en plus d'être un gourou transhumaniste)

Que fait la cellule investigation d'ASI... profondément déçu.
Pourtant, il ne suffit pas d'aller chercher très loin: http://tempsreel.nouvelobs.com/sciences/20170210.OBS5170/10-choses-a-savoir-sur-laurent-alexandre-gourou-de-l-intelligence-artificielle.html
Le parlement européen fait des recommandations concernant des règles de droit sur la robotique et l'IA. Le rapport fait references à des oeuvres de SF pour appuyer ses propositions

A voir aussi
le mooc des robots et des hommes avec Claire Devillers
C'est une très regrettable erreur d'avoir invité L.Alexandre, batteleur de sa petite entreprise d'autopromotion, sans position claire, un jour pro biotech a 200%, un jour super critique sur leurs dérives, fasciné par tout ce qui est GAFA et silicon valley paske c'est l'futur ma brave dame. Où l'on voit que sur des sujets moins classiques, @si tombe dans le panneau de l'invité bon client même si sa crédibilité parmi ses pairs est nulle. Pour moi, inviter L. Alexandre sur un tel sujet, c'est juste admettre qu'on n'a pas cherché sérieusement un intervenant. Désolé de la sévérité mais ce soit disant scientifique est une vraie plaie!
Avant d'augmenter le cerveau, faudrait déjà le connaître et savoir l'utiliser correctement.

En France tout les ordinateurs du gouvernement(même l'armé), tournent sous Windows, ça donne une idée du niveau.

Ce message a été supprimé suite à la suppression du compte de son auteur

32' 10" :Daniel Schneidermann à plus de neurones (actifs?) qu'un ver de terre.
Je reste abonné.
Hier, j'ai eu une démonstration des IA de Microsoft et d'IBM sur le traitement des vidéos pour les entreprises :
- analyse des visages et mettre un nom dessus, y compris des gens qui étaient dans le fond de la vidéo (c'était tourné sur un salon)
- analyse des visages et pouvoir mettre une émotion dessus (content,pas content...)
- analyse de la voix et pouvoir mettre une émotion dessus (content,pas content...)

C'est très impressionnant comme démo, visiblement c'est super utile pour les entreprises pour déterminer l'impact de vidéo de présentation de produits.

Personnellement, j'ai tout de suite pensé à ce qu'un gouvernement totalitaire pourrait faire de tout cela (identifier des manifestants), ou la direction d'une entreprise (genre qui n'a pas applaudi le discours du président ou qui n'a affiché un sourire béat devant la parole de son chef).

Cela me parait un sujet plus immédiat que l'avenir de l'emploi, la formation des jeunes ou celle de l'humanité augmentée.
Sur le blog Mais où va la Web, on trouve ce post peu flatteur sur Laurent Alexandre, avec quelques-unes de ses sentences.
A priori, Laurent Alexandre n'a pas été invité parce qu'il est urologue, mais parce qu'il vient de sortir un livre , il avait déjà annoncé "la mort de la mort" (2011), la "défaite du cancer" ( 2014) et donc aujourd'hui il annonce "la guerre des intelligences" :

homme / machine .

Laurent Alexandre a dit dans l'émission tout le mal qu'il pense de l'éducation nationale .

Il fait le reproche à l'école d'être incapable de "réduire les inégalités intellectuelles"

( pour cet objectif il faudrait commencer par ficher les enfants à l'entrée au CP, ou en maternelle peut-être ? - , les classer selon ce qui serait appelé : "compétences intellectuelles" ou plutôt : "intelligence" )

Donne-t-il seulement une définition de l'intelligence, cet auteur qui affirme que "l'intuition des pédagogues se passe de toute validation scientifique" ?

En dehors de l'introduction des neurosciences dans le pédagogique, point de salut selon lui .

"pour rester dans la course, l'être humain aura deux choix, d'ailleurs non exclusifs l'un de l'autre : l'eugénisme biologique ou la neuroaugmentation électronique "

La question qui se pose, est de savoir si l'une des sociétés dans laquelle Laurent Alexandre investit ne serait pas une maison d'édition de logiciels pédagogiques ?

Au fait, est-il toujours praticien ?


( cf parmi les articles - nombreux - sur la présentation de ce livre ,celui des échos qui publie la photo du robot donnant un cours de Tai Chi à un groupe d'enfants)
Je n'ai pas encore regardé et je changerai peut-être d'avis mais je vois des commentateurs s'étonner de la présence d'un médecin.

Pour comparer ce dont est capable le une IA et le cerveau humain, c'est indiqué. Alors certes, un neurologue aurait été préférable à un urologue.

Je ne vois personne s'interroger sur les capacités des "informaticiens" en psychologie, neurologie, en philosophie...
S'il vous plait, vous devez vraiment songer à arrêter de faire des émissions sur les thèmes scientifiques. Je comprend l’intérêt de parler de sujets originaux dont peu de personne ne parle mais vous ne semblez ne pas avoir de journalistes, dans votre rédaction, compétente sur les sujets scientifiques. C'est attristant, à chaque fois que vous faites une émission sur les sciences je peste pendant une heure, c'est pourquoi, pour me défouler et guérir mon traumatisme lié au visionnage de l'émission, je vais faire une critique de votre émission d'hier...

Premièrement, vos invités sont mal choisis. Vous avez invité trois non scientifiques, dont le fondateur de Doctissimo, Laurent Alexandre, médecin, qui sont certes bon orateurs mais n'ont qu'une connaissance très partiel du domaine de l'informatique (et de toutes les techniques autour de l'informatique). Jean-Gabriel Ganascia étant la seul personne compétente sur le sujet ne peux ni animer le débat, ni être contredit par les autres invités, ce qui pose un problème.

Deuxièmement, quand on parle d'intelligence artificielle et de ses progrès, on parle d'un ensemble de techniques informatiques (et il
y en a d'autre). Il se trouve que ces techniques sont inspirés de concept de biologie et que l'on a donné ce nom la à cette branche de l'informatique. Si "intelligence artificielle" avait comme nom "apprentissage informatique", la plupart des interrogations des non spécialistes aurait des questions différentes sur le sujet. Pour ma part, je connais beaucoup pas mal de chercheurs (du domaine) qui disent que le nom de ce domaine porte à confusion. Aussi, le fait de demander aux chercheurs qui travaillent sur ce sujet et font la promotion de ce sujet, ce que ces techniques vont permettre dans le future, est une démarche biaisée (sans autre contre-démarche) et cette démarche est la plus rependu parmi les journalistes (et dans cette émission c'est le cas).

Troisièmement, j'ai souvent l'impression que les progrès de l'informatique sont vu comme une magie noire. Il faut savoir que l'amélioration des matériels informatiques n'explique pas à lui seul des progrès tels que la reconnaissance d'images et la création d'une intelligence artificielle. Il s'agit, d'en la plupart des cas, d'un assemblage de découverte scientifiques astucieuses indépendante du matériel. Par exemple, en ce qui concerne le go, la première grande amélioration des IA dates de 2006 et aurait donné les mêmes gains de performance 20 ans plus tôt.
Merci pour votre contribution !
Je viens de terminer l'émission en me demandant ce que pouvait bien être cette "intelligence artificielle" (qui a été l'objet de la première question de l'émission, qu'aucune réponse des intervenants ne m'a permis d'éclaircir tout à fait). Renommer la discipline en "apprentissage informatique" me semble par contre limpide, parce que je comprenais pas trop la différence faite entre un ordinateur super puissant et un ordinateur "intelligent".
Et c'est clair que ça amènerait bien d'autres questionnements (étant fan de Blade Runner, Terminator, et Minority Report, là j'avais l'impression d'être dans une émission de critique cinéma...)
Je ne crois pas que l'intention était de faire une émission sur un thème scientifique mais plutôt sur l'impact social de ces technologies (d'où le titre) et c’est peut-être parce qu’il manque à @si une compétence en journalisme scientifique que la construction de l’émission a laissé un flou.
Ganascia était-il le plus approprié pour le sujet ? Pas sûr. Il y a eu une demi-heure où il avait du mal à vulgariser dans le sens nécessaire pour la suite, ça s'est perdu dans du "wikipedia" (expliquer le deep learning en 1 minute...), et on n'a guère eu de vision d'ensemble sur les applications concrètes ayant des impacts sociaux.

En fait, entre cette émission et les usages bizarre de "les algorithmes" qui ont été faits dans d'autres émissions, j'ai l'impression qu'à @si on ne voit pas bien que c'est le même sujet, le développement général des compétences du logiciel, que ce sont juste les imaginaires qui changent selon qu'on se met à parler "big data", "algorithmes", "intelligence artificielle" etc.

Quand dans l'émission Daniel renvoie la question à une simple augmentation de puissance de calcul, il rate que celle-ci n'est qu'un moyen, que c'est la diversification des tâches réalisées qui compte et les manières de les réaliser.
Plus besoin d'un super-ordinateur pour battre un champion d'échec, un logiciel sur smartphone y arrive.
Je pense que certains points auraient mérité plus d'attention.

Le premier est le potentiel d'aliénation des algorithmes qui nous donne des solutions de façon autoritaire, sans que l'on puisse les contester. Par exemple l'algorithme de recherche de Google peut influencer notre façon de percevoir le monde. La non connaissance des algorithmes, des choix qui ont été fait derrière est un problème. Les concepteurs des algorithmes ont une responsabilité. C'est pour cela que l’intervenant à droite parlait de choix (et de démocratie).

Aujourd'hui Google et les grands groupes se dédouanent de leur responsabilité derrière le choix de la majorité (la dictature de la majorité n'est pas démocratie).
Mais avec l'intelligence artificielle qui est responsable ? C'est ça le problème, il sera très facile de se dérober. Est-ce que le responsable est celui qui a mis les objectifs à atteindre dans l'algo d'apprentissage profond ou un apprentissage biaisé ?

Dernier point, si l'IA permet d'augmenter la productivité, cela veut dire que moins de personnes vont travailler pour produire une même quantité de produit. Donc ça augmente le chômage (pas forcément en Allemagne mais ça a un impact ailleurs dans le monde) à part si on augmente la consommation ou qu'on creuse des trous pour les reboucher.
" Google peut influencer notre façon de percevoir le monde."
Souvent il travaille à la conforter (votre vision du monde), grâce à ses logiciels d'IA faible qui en font le modèle.
Certaines de ces IA font déjà des millions voir des milliards de transactions boursières chaque jour et sans aucun contrôle.
"Dernier point, si l'IA permet d'augmenter la productivité, cela veut dire que moins de personnes vont travailler pour produire une même quantité de produit. Donc ça augmente le chômage"
les outils techniques, qu'il s'agisse d'un tournevis ou d'un programme dans un ordinateur, permettent en théorie pour l'homme d'accomplir une tâche plus efficacement, voire impossible juste avec ses dix doigts et son cerveau. Dans cette optique donc l'automatisation et l'IA faible permettent en théorie de libérer l'homme des boulots aliénants et repetitifs, pour se consacrer à des choses plus intéressantes. Pour ça il faut bien évidemment sortir du mythe de l'emploi et du travail salarié comme unique mode d'existence possible.
Sinon pour le reste, c'est toujours des humains qui mettent en place des outils algorithmiques, en symbiose avec un mode de production capitaliste qui vise à une forme d'efficacité, sans jamais élargir les champs de réflexions. C'est à la fois aux humains qui les mettent en place et à ceux qui les utilisent de se poser les bonnes questions, et là on sort du champ de la science appliquée à l'informatique pour rentrer sur le terrain de la philosophie, et de la politique. On en parle comme si les outils tels que les algorithmes de deep learning avaient déja suffisement d'autonomie qu'on n'ai plus aucun pouvoir sur ces outils. C'est seulement par ignorance qu'on pense être dépassés. Mais c'est bien ceux qui les mettent en place qui font ces choix là. C'est comme si on sautait d'un train en marche et qu'on se plaignait de n'avoir plus aucun contrôle sur lui. Quand des types comme Elon Musk vivent autant dans la mysitification (au sens religieux), alors qu'on s'attendrait de lui un peu plus de recul, il y a en effet de quoi s'inquiéter sur la folie mystique que les humains vont développer autour de "l'IA". Comme s'accordent au moins à dire tous les intervenants autour de la table ici, et contrairement à toute la littérature sur la singularité à laquelle adhèrent un bon nombre de gourous de la silicon valley; on a aucune idée de si on arrivera jamais à la notion réelle d'IA forte, c'est à dire être singulier doué d'une conscience propre, ni comment elle se manifestera, ni si on sera capable de l'identifier.
les outils techniques, qu'il s'agisse d'un tournevis ou d'un programme dans un ordinateur, permettent en théorie pour l'homme d'accomplir une tâche plus efficacement, voire impossible juste avec ses dix doigts et son cerveau. Dans cette optique donc l'automatisation et l'IA faible permettent en théorie de libérer l'homme des boulots aliénants et repetitifs, pour se consacrer à des choses plus intéressantes.

Je me permets d'apporter une petite précision. Ce que permet la technique n'est pas seulement d'accomplir une tâche plus efficacement, ou sinon impossible. Des techniques ont été inventées tantôt dans le seul but du confort (suspension), tantôt dans le seul but de la sécurité (casque de chantier), tantôt pour rendre des tâches moins pénibles (roue), tantôt pour les rendre ludiques (serious game), ou encore dans un seul objectif esthétique (teinture). Et je dois certainement en oublier d'autres.

Là où je veux en venir c'est que si le but du jeu est de réapprendre à faire aimer les machines (merci pour ce lien) alors il ne faudrait probablement pas présenter la technologie comme ayant pour seul objectif l'efficacité, le rendement, la productivité.

Concernant l'intelligence artificielle par exemple, et plus particulièrement l'apprentissage profond (qui n'en est qu'un sous-ensemble), il faut se rappeler qu'à l'origine c'est une innovation qui nous vient de l'astrophysique dont les volumes de données sont... astronomiques.

Il m'apparaît évident que si l'on me présentait uniquement l'IA comme permettant à Google de collecter mes données personnelles pour m'inonder de publicités ciblées et de m'envoyer au chômage, d'une part je vais être réticent voire hostile, et d'autre part je ne risque pas de m'y intéresser. Si l'on me dit au contraire que l'IA permet de guérir des maladies, d'explorer l'espace, et d'anticiper catastrophes naturelles et crises humanitaires, tout de suite, je vais être beaucoup plus enclin à m'y intéresser et à l'étudier.
"Là où je veux en venir c'est que si le but du jeu est de réapprendre à faire aimer les machines (merci pour ce lien) alors il ne faudrait probablement pas présenter la technologie comme ayant pour seul objectif l'efficacité, le rendement, la productivité. "
c'est vrai, de toute façon la question de l'efficacité n'as pas de sens en soi.
Chez Simondon il me semble Il s'agit de comprendre l'outil, son usage, sa constitution, son fonctionnement, ses limites, son inscription dans un réseau ou dans un ensemble plus grand, son essence ("individuation"), son historicité, et comment il est une extension et/ou un miroir de l'humain.
Il en parle dans cet entretien (il faudrait que je le lise pour pouvoir mieux en parler):
https://www.youtube.com/watch?v=VLkjI8U5PoQ
Voir ma réponse sous Faab 13: 51 où elle a été mal placée: non de mon fait.
" non de mon fait."
Hélas si ! (ne vous fâchez pas). Ce n'est pas le logiciel du site qui choisit de placer votre commentaire. C'est vous et l'erreur courante est de répondre au général, ce que vous avez fait ici, au lieu du commentaire que vous. L'option existe en rouge à droite du bandeau qui apparait quand vous cliquez sur répondre au commentaire. On peut la cliquer par inattention.
Je ne me serais, de toutes façons, pas fâché, mais vous aurais au contraire remercié, comme je le fais ici pour l'information. En l'occurrence toutefois, je pense* avoir répondu "au lieu du commentaire" comme je le fais maintenant au vôtre. Mais bien sûr je ne suis pas à l'abri d'une inattention dont je ne vois toutefois pas plus maintenant qu'auparavant l'option en rouge que vous me signalez.

*Sans oublier que le je pense fut par Descartes découvert grâce au je doute.
Je comprends que vous n'avez pas installé "l'extension aux forums d'@si"
de l'irremplaçable Gemp qui offre l'option.
Je ne propose donc aucune explication de l'erreur qui vous a "mal placé".
Ingénieur-chercheur bossant dans la domaine de l'IA, et ASI-naute de la première heure, je m'attendais à vivre l'émission de la façon que vous décrivez. Les émissions scientifiques sont riches en passages pour moi embarassant où Daniel s'acharne à obtenir une réponse binaire à une question mal posée pour qui connait le domaine, J'ai encore en tête les longues discussions sur "le réchauffement climatique explique t il oui ou non cet ouragan précis" dans les oreilles, une souffrance pour qui connait un peu les statistiques!
Sur mon domaine de spécialisation, je pensais donc souffrir... Et bien je n'ai pas retenu la même impression que vous.

J'ai l'impression qu'en une heure, ASI est parvenu à démystifier partiellement le mythe de l'IA. En le ramenant à des domaines très spécifiques dès le début de l'émission. En rappelant que les neurones ne "modélisent" qu'une partie du fonctionnement du cerveau. En refroidissant les prédictions alarmistes sur la singularité. En expliquant le genre de catastrophe auxquelles les nouveaux algos pourraient nous mener, réels mais sans volonté de détruire les humains. Etc.

C'est vrai qu'il reste quelques faiblesses majeures dans l'appréhension de ce sujet (complexe), la principale consistant à ne jamais avoir expliqué que l'IA est basée apprentissage. La comparaison entre Deep Blue et Alpha Go aurait été une occasion parfaite pour opposer l'ancienne "intelligence" combinatoire des PCs à leur nouvelle "intelligence" par apprentissage...
Mais bon, pour ce qui me concerne le solde m'a l'air très positif. Des coins ont été fortement enfoncés dans les clichés médiatiques sur l'IA, et c'est déjà énorme en si peu de temps.
La plupart des gens croient encore que la cognition réside uniquement dans la seule tête des êtres humains, alors que, depuis au moins l'invention de l'écriture, la cognition est distribuée entre les humains et les artefacts cognitifs qui leur servent d'extensions : tablettes d'argile, peaux de bêtes, papyrus, papier imprimé, bouliers, règles à calcul, calculatrices, ordinateurs...

La question qui se pose à présent est celle du contrôle de ces artefacts cognitifs, qui étaient jusqu'à présent de simples auxiliaires à notre service mais qui acquièrent aujourd'hui de plus en plus d'indépendance.

Quand notre propre cerveau devient incontrôlable et sort de la norme, on parle de folie.

Quand nos extensions cognitives risquent à leur tour de devenir incontrôlables, de quoi parlerons-nous ?
Bon sujet, mais pitié Daniel laissez les parler !!!
Si vous faites une émission sur le transhumanisme, il vous faut Alain Damasio !
Bon, j'ai trouvé ça léger, avec un manque de temps pour développer à la fois les aspects théoriques et les effets sociaux des automatisations à venir.

Sur le théorique, Daniel n'a pas semblé bien voir où étaient les sauts qualitatifs, je crains que ce soit la même chose pour beaucoup de gens.
Par exemple, sur l'apprentissage, on devrait peut-être dire auto-apprentissage parce que ces systèmes définissent eux-mêmes leurs comportements pour obtenir l'objectif qu'on leur fixe dans un jeu qui échappe à l'analyse humaine. L'effet imprévisible n'est pas un bug à proprement parler, le système fonctionne très bien puisqu'on lui demande justement d'être "innovant", c'est-à-dire d'être plus optimal que ce qu'on peut faire nous-même. Tout ça marche très bien pour les "jeux" au sens large, systèmes ayant des règles de gain/perte quantifiables notamment l'économie.

Sans parler des jeux de guerre (nucléaire...), on pourrait avoir rapidement des problèmes avec le système financier où les transactions à haute fréquence posent déjà souci (cf Flash crash de 2010), et avec bientôt peut-être des systèmes pouvant se passer d'intervention humaine :
"Une publication de l'Université d'Erlangen-Nuremberg montre ainsi l'efficacité du deep learning (apprentissage machine profond), appliqué à l'arbitrage financier sur un vaste marché tel que le S&P 500 (indice boursier basé sur 500 grandes sociétés cotées sur les bourses américaines). Par un exercice de simulation sur l'historique des cours de 1992 à 2015, le réseau neuronal a atteint par moment des performances records, se maintenant à deux chiffres y compris au plus fort de la crise financière de 2008, ou lors de l'éclatement de la bulle internet en 2000-2001 !"
Bientôt les traders au chômage ?
Et que se passerait-il avec une démocratisation de ces systèmes, chacun pouvant lancer son ordi pour jouer en bourse ?
Dans le genre jeu d'argent : il y a déjà des bots repérés sur les plateformes de poker en ligne (et dernièrement, un système a battu des professionnels).

Sinon, si le fond idéologique du transhumanisme est traité dans une autre émission, il faudrait à mon sens quelqu'un maîtrisant de vieilles questions sur la technique, les rêves de puissance, de dépassement de l'humain etc., ne pas prendre ça comme une nouveauté. Le transhumanisme est dans les lignes anciennes du rapport de la technique au pouvoir, promesses de magie par les recettes des initiés, de Prométhée à Frankenstein.
Toute cette mentalité n'a pas manqué de critiques particulièrement avec la foi techno-scientiste qui anime nos sociétés depuis quelques siècles ("comme maître et possesseur de la nature" disait Descartes...).

Au passage, le thème a été largement développé dans la science-fiction dès les années 50 avec l'arrivée de l'informatique et dans une nouvelle ("Hemeac", dans ce recueil) un robot enseignant demande aux étudiants de définir l'éducation :
"L’objectif de l’éducation, récita Obsic d’un ton uni et calme, consiste à développer l’esprit humain de façon qu’il puisse approcher la perfection naturelle de l’intelligence robotique d’aussi près que le lui permettent ses facultés limitées."

N'est-ce pas ce qu'on nous propose dans une société de performance où la concurrence se fait non seulement entre humains mais aussi avec les machines ?
D'ailleurs, j'ai peut-être mal compris mais Laurent Alexandre ne semblait pas contre la promesse de gamins à haut QI (il investit dans ce business ?) et cet eugénisme n'est pas vraiment différent des autres méthodes d'outillage de l'humain, avec le robot comme image contemporaine de la puissance supérieure, qu'elle soit angélique ou démoniaque. Peut-on vanter les Humanités quand on se met à parler de "surhumain" par la génétique ou par l'électronique ? Que diraient de cette mentalité ces psychologues que Ganascia tient à former à l'intelligence artificielle ?
Je vois un sujet sur l'intelligence artificielle, j'ai hâte de voir une liste d'invité-e-s spécialistes du sujet, et là, je vois en premier:
"Laurent Alexandre, chirurgien urologue, fondateur de doctissimo". Ah ouais, quand même. Vous étiez vraiment en dèche d'invités ou bien comment ça se passe ? A ma connaissance, rassembler la connerie humaine sur un site n'a jamais fait naître l'intelligence artificielle.

(cela dit, je regarderai demain, on verra bien...)

Ce message a été supprimé suite à la suppression du compte de son auteur

Donc selon Laurent Alexandre, les filières "littéraires" aiguiseraient l'esprit critique, tandis que les filières "scientifiques" seraient dogmatiques ... et personne sur le plateau n'y trouve rien à redire ?
Le ton prédicateur et assuré des envolées de Laurent Alexandre est insupportable, je suis très déçu de le voir conclure l'émission ... Il a bien du mal à balayer Harari parce qu'ils ont un point commun : tous deux n'ont aucune pratique de l'IA (au mieux un peu d'informatique ?) mais ont quand même un avis très développé dessus ! Son projet politique ressort très bien dans son balayage des effets des lois Hartz, "un biais statistique". Ou encore quand il réclame de la formation à l'esprit critique, mais investi plutôt dans les NBIC que l'éducation.

Helas en parlant d'emplois les invités oublient de discuter de la nature de ces emplois : se développer à la chinoise, c'est tolérer les fermes à clics. A l'américaine, c'est les externaliser discrètement ou en faire un commerce, à la Mechanical Turk. Un problème très bien résumé par cette illustration https://xkcd.com/1897/

Ceci dit, merci DS de ramener de temps en temps des questions pratiques, mais pertinentes : les IA telles qu'on les connait, et ça devrait encore être le cas quelques temps, sont avant tout des programmes informatiques. Qui fonctionnent donc sur des ordinateurs, alimentés en électricité, reliés à un réseau, par des câbles, etc. Leur existence concrète les limite énormément et ridiculise la plupart des scénarios à la Terminator, mais surtout indique directement quels intérêts elle servent - qu'elles soient faibles ou deviennent fortes.

Pour finir de vous convaincre d'à quel point on va avoir besoin d'esprits critiques, je vous renvoie à cet article https://www.economist.com/news/science-and-technology/21724370-generating-convincing-audio-and-video-fake-events-fake-news-you-aint-seen
Peut-être que les IA auront aussi un effet Gorafi ?
A 48:13, Monsieur Ganascia nous dit : "Les pays dans lesquels il y a le plus de robots dans l'industrie, ont le moins de chômage : exemple Japon, Allemagne". Et il parle d'une "corrélation inverse".

Il oublie juste de mentionner que ce sont aussi les pays dont la démographie est en chute libre et où la population active
vieillissante tend à diminuer et ne suffit plus à répondre aux besoins... d'où davantage de place disponible pour des robots (Japon) ou pour des robots et des travailleurs immigrés (Allemagne).

Comme quoi, contrairement à ce qu'il suggère, ce n'est sans doute pas la robotisation en tant que telle qui évite le chômage.
Est-ce que l’IA a le sens de l’humour?
Je viens d'apprendre quelques chose d'intéressant :

l'ingénieur d'Amazone qui conçoit le robot qui, à chaque fois que je consulte un livre, me suggère d'autres ouvrages... qui ne m'intéressent pas, cet ingénieur est payé plusieurs millions de dollars par mois !

Ma libraire, qui deux fois sur trois me propose un titre qui m'intéresse, devrait demander une augmentation.
Très bonne émission avec des intervenants clairs et intéressants. J'ai bien aimé Irénée Régnauld, quand il dit que c'est à nous de choisir ce qu'on veut et ce qu'on refuse dans l'IA, (quitte à devenir les cons comme des bites de la planète...)
Je souhaite que le futur journaliste I.A. ne passe pas son temps à couper la parole de manière intempestive.

[Rien à voir avec la remarque ci-dessus] :
Fort heureusement, en matière de connerie naturelle, nous pouvons nous enorgueillir de demeurer imbattables pour l’instant.
"des IA faibles, sans conscience d'elles-mêmes et cons comme une bite"

Ne vaudrait-il pas mieux parler de "C.A.... crétinisme artificiel" ?

DÉCOUVRIR NOS FORMULES D'ABONNEMENT SANS ENGAGEMENT

(Conditions générales d'utilisation et de vente)
Pourquoi s'abonner ?
  • Accès illimité à tous nos articles, chroniques et émissions
  • Téléchargement des émissions en MP3 ou MP4
  • Partage d'un contenu à ses proches gratuitement chaque semaine
  • Vote pour choisir les contenus en accès gratuit chaque jeudi
  • Sans engagement
Devenir
Asinaute

5 € / mois
ou 50 € / an

Je m'abonne
Asinaute
Généreux

10 € / mois
ou 100 € / an

Je m'abonne
Asinaute
en galère

2 € / mois
ou 22 € / an

Je m'abonne
Abonnement
« cadeau »


50 € / an

J'offre ASI

Professionnels et collectivités, retrouvez vos offres dédiées ici

Abonnez-vous

En vous abonnant, vous contribuez à une information sur les médias indépendante et sans pub.