99
Commentaires

Intelligences artificielles

C’est un fait-divers qui aurait pu avoir des conséquences tragiques.

Derniers commentaires

Lorsque je suis dans ma voiture
Une voix posée me rassure
Elle accompagne mes trajets
Comme une étoile du berger

Elle est énigmatique
On dirait la Joconde
Sa parole angélique
Me mène au bout du monde
[...]

(François Morel, en duo avec Yolande Moreau, paroles de François Morel et musique de Reinhardt Wagner sur l'album Le Soir, des lions..., 2010, http://www.deezer.com/track/5497622) — https://www.youtube.com/watch?v=Nh95BO1D1HE
Ma GPS se prénomme Simone.

Elle a tout vécu.
Une fois, nous avons fait tout notre trajet en allemand. Pour rigoler.

Une autre fois, nous visitions une église portugaise, et, ayant oublié de l’éteindre, Simone a déclaré dans le silence réverbérant
du lieu : « Faites demi-tour dès que possible ! ».

Et pour le humor, The Office.
Un article en Anglais (je n'ai pas réussi à mettre la main sur une version Française) qui décrit comment lors d'une expérience des étudiants "piégés" dans un bâtiment en feu ont suivi un robot dans qui les faisait traverser tout le bâtiment les mettant ainsi en danger alors qu'ils connaissaient très bien la sortie la plus proche.

Je pense qu'ici nous avons affaire à une variante de l'expérience de Milgram. Le robot représente alors l'autorité supposée compétente.

Source : http://www.entrepreneur.com/article/271840
J'en déduit que Daniel aime les voix féminine autoritaire ))) et qu'il ne peut y résister . Perso moi des fois / souvent je me rebelle et je n'écoute pas le GPS surtout s'il y a des embouteillage, je ne me suis jamais retrouvé dans un cul de sac . Les machines ne sont pas fiable, les humains oui .
Il faudrait créer un indice (délicat à évaluer) du type U/E où U=utilité du problème résolu par une intelligence (humaine ou non) et E=Énergie dépensée.
En effet, l'équipe AlphaGo doit elle être fière d'avoir dépensé tant d'énergie électrique pour battre un humain au jeu de Go ?
Pour le moment l'indice est en faveur de l'humain.

Néanmoins je ne veux pas minimiser la recherche sur l'intelligence artificielle. Il faut continuer sur ce chemin, j'en suis convaincu.
Une bonne illustration de ce qu'il faut comprendre quelles sont les arnaques qui nous menacent quand il est question d'intelligence artificielle: http://watson2016.com/

"La fondation Watson 2016 est une organisation indépendante pour la promotion de l'intelligence artificielle connue sous le nom de Watson en temps que candidat à la présidence des États Unis d'Amérique"

Cet exemple est tellement débile que je ne crois pas qu'il soit réellement dangereux mais les efforts actuels pour nous soumettre aux règles comptables et bancaires donnent une idée de la suite.

Le vrai danger c'est la confusion entre ce qui relève de la science (où les idées fausses peuvent être éliminées par des expériences ou des contre-exemples) et ce qui, dans ce cas la politique, n'en relève pas parce qu'il y a une infinité de possibilités intermédiaires entre le vrai et le faux (sans qu'on puisse leur attribuer une probabilité.)

Pour ce genre d'applications de l'IA l'apprentissage n'a pas de sens (même si évaluer en dollars les moyens et les résultats facilite beaucoup les choses): les expériences sont exclues à cause des désastres qui en résulteraient jusqu'à la découverte complète et définitive des lois du bon gouvernement.
L'échéance 2017 approchant, une suggestion à François Hollande : remplacer rapidement Valls par un robot AlphaGouv. qui apprend de ses erreurs.
"En revanche, il est probable qu’il sera beaucoup plus irritable devant toutes mes erreurs de conduite ou d’itinéraire, et sera un jour ou l’autre tenté de conduire à ma place."

Non, il ne s'enervera pas, il apprendra encore de vos erreurs...
[quote=Daniel Schneidermann]Ses concepteurs peuvent bien tenter de nous rassurer sur le mode «allons donc, on ne l’a programmé que pour jouer au Go, il ne sait rien faire d’autre», bien entendu, à la différence du GPS, nous ne les croyons pas

... et vous avez bien raison ! Les technologies mises en oeuvre (deep learning) dans AlphaGo sont applicables à n'importe quel autre domaine : médecine, transport, recrutement etc.

Si on n'arrive pas à réintégrer de l'humain dans ce qui se prépare à moyen terme, on va IMHO à la catastrophe (des hôpitaux où les patients seront surveillés par des machines qui leurs distribuent les médicaments, des entretiens d'embauches où le verdict sera rendu par un programme etc).

Regardez cette video. Il s'agit d'ATLAS, le dernier robot conçu par Google et présenté il y a quelques jours. Vous verrez qu' ATLAS pourrait parfaitement assurer le picking des colis dans une société comme Amazon...

Les derniers emplois non qualifiés qui restent réservés à l'homme car par encore atteints par le numérique vont eux-même à terme disparaitre.

PatriceNoDRM
C'est quoi, un GPS ?

et l'intelligence, artificielle ou pas ?
Pour l'anecdote, j'ai eu aussi ce genre de déboire (mais à ma décharge ce n'est pas moi qui conduisais)
Donc on se gare dans une espèce d'impasse/place de parking. Au moment de repartir dans notre home à nous, on met le TomTom. Normal.
Et là la ligne verte s'inscrit autour du pâté de maison et nous fait revenir à notre point de départ. La conductrice s'en étonne, puis dit :
"On va suivre les indications, et quand on sera sortis de la place, il nous orientera vers la bonne direction."
Tournez à gauche, tourner à gauche, tourner à gauche. On fait le tour, et la ligne verte continue de faire le tour du pâté de maison.
Et en vertu du fait qu'à un moment ça allait se déclencher, on a fait 3 FOIS le tour du pâté de maison.

Et à la troisième fois, j'ai dit "Tourne à droite là" (n'y voyez aucune allusion politique). C'est ce qu'elle a fait ! Et là, tout s'est remis en place.
Quelquefois, en mettant le TomTom, on en rigole en disant : si on avait suivi le GPS, on serait encore en train de tourner à Rambouillet. Pour toujours ! Comme un chèvre autour de son piquet !!!

En ce qui concerne les intelligences artificielles, c'est assez étonnant, le raisonnement que vous faites.
Vous partez du principe que la réflexion de l'être humain, donc également à l'horizon de l'avenir du robot, est uniquement d'origine rationnelle. Or, c'est totalement faux : nos ressorts sont avant tout émotionnels. Pour agir, il faut en avoir l'envie, le DESIR !
Or ces sentiments sont totalement ancrés en nous biologiquement : Un énorme et complexe système chimique et hormonal fait interface avec notre environnement, et nous pousse à agir. Et c'est ensuite la rationalité qui prend le relais et analyse comment agir en fonction de ce désir exprimé (ou non, parce qu'il peut être purement inconscient) au niveau de notre cerveau supérieur.
Il existe des maladies du cerveau où le sujet perd tout désir : il n'a plus alors de mécanisme de la volonté. Son raisonnement et l'analyse de ses besoins n'existent plus.
Et les machines n'ont pas ces mécanismes, c'est pourquoi elles ne peuvent avoir de colère, d'indignation ou de susceptibilité. Parce qu'elles n'ont pas de Volonté d'agir. Elles sont agissantes mais passives.
Personnellement, j'ai beaucoup moins peur des robots que des humains qui les commandent.

Et j'ai également peur des gens qui prennent le contrôle de notre cerveau pour en faire émerger des désirs ou des peurs délétères.
Parce que pour la plupart, nous avons également des mécanismes hérités de l'hominisation qui nous poussent à agir ensemble, et à perdre tout sens.

Parce que lors de l'évolution, le groupe humain qui a survécu et vaincu tous les autres est celui qui pouvait à la fois laisser une grande autonomie à ses individus et pouvoir les rassembler comme une seule entité en cas de danger.
D'où l'illusion de liberté, de rationalité, de pseudo-morale et d'aveuglement pour que tout cela tienne ensemble...
Cette manie réactionnaire de dénigrer le progrès technique me chagrine quelque part. Voulons-nous revenir à la diligence et aux bandits de grand chemin ? Voulons-nous trouver notre itinéraire en interprétant des entrailles de volaille ?
Mon GPS (sur l'air des P'tites femmes de Pigalle de Serge Lama)
Gérard BAKNER - bakner.fr

J’me suis acheté un super GPS
Le genre de truc qui’t’coûte la peau des fesses.
J’l’ai mis sur mon pare-brise.
Maint’nant faut qu’j’l’utilise.
Y’a des boutons partout.
Ce truc là, j’en suis fou.

La première fois que j’ai pris un carrefour
J’ai pas compris, m’a fait faire quinze fois l’tour !
Ca m’a coûté un plein.
J’aurai dû prendre le train.
Je consomme plein d’essence.
J’ai doublé mes dépenses.

Il voulait pas qu’j’prenne le sens giratoire.
M’disait tout l’temps d’changer de trajectoire.
Prend la première à droite.
Fais le tour de la place.
Puis la deuxième à gauche,
Et rendez-vous rendu at home.

Quand j’suis perdu, quand j’sais plus où j’habite
J’entends des voix qui m’guident par satellites.
Il calcule mon parcours
Me fait faire plein détours.
J’connais plein d’raccourcis
J’prends les sens interdits.

Quand j’suis tout seul au volant d’ma bagnole
Et qui me prend des envies d’gaudriole.
Quand ma femme n’est pas là,
J’mets la voix d’Ursula.
On fait un bout d’chemin,
Ca m’change du quotidien.

Maint’nant qu’en plus, il m’signale les radars
J’donne des coups d’frein, du coup j’arrive en r’tard.
Plus besoin d’cartes routières.
J’fais la route buissonnière…
Ce truc là m’électrise.
Je suis sous son emprise.

J’me suis acheté un super GPS
Le genre de truc qui d’vient vite indigeste.
Mais j’suis content, j’suis content,
J’suis content, j’suis content,
J’suis perdu mais… content.
L'intelligence artificielle n'a rien a voir avec l'intelligence humaine.

AlphaGo repose sur une méthode de MonteCarlo:

https://fr.wikipedia.org/wiki/M%C3%A9thode_de_Monte-Carlo

AlphaGo, comme DeepBlue, construit l'arbre de toutes les situations possibles. Il doit alors choisir quelle situation est la plus préférable et choisir la branche de l'arborescence d'options qui se présentent à lui. Pour cela, il doit faire appel à une fonction heuristique, qui va permettre de déterminer la valeur quantitative de chacune des options.

Une fonction heuristique bête conçue par l'homme, évaluera simplement le plateau de jeu à un instant t. Une fonction heuristique plus fine déduite par réseaux neuronaux artificiels permettra de valoriser une situation en fonction de son évolution potentielle. C'est cette fonction heuristique, que la machine doit apprendre (par ailleurs, on constate deja que la partie apprentissage est réduite au minimum, seule l'évaluation de la situation est apprise, le reste est codé en dur).

Généralement, la fonction heuristique est définie par l'humain lui même. Il est tres difficile pour une machine d'apprendre par elle meme la valeur d'une situation dans un jeu tel que le go. DeepMind a réussi à produire une méthode capable de le faire. Mais d'autres projets avaient réussi avant une telle approche, comme Giraffe, sur le jeu d'échecs : http://arxiv.org/pdf/1509.01549v2.pdf

En conséquence, on a à faire ici à un outil statistique automatisé. Il n'y a ni cognition, ni pensée, ni articulation de concepts. Juste une analyse statistique bien velue. Et c'est en cela que les réseaux neuronaux artificiels profonds sont utilisés. Ils ne servent qu'à analyser de manière statistique et aboutir à une régression linéaire. La fonction heuristique est donc déduite à force d'entrainement de ce réseau.

Est ce que l'intelligence humaine est un simple outil classificateur statistique? Non. Est ce que la statistique peut aboutir à un semblant de cognition? Non.
Des fois, je me demande la différence entre un chercheur en intelligence artificielle et un bête statisticien. Le premier sait coder.

Voici ce que disait Minsky, a propos des réseaux neuronaux artificiels profonds en 2015:

http://www.lefigaro.fr/secteur/high-tech/2016/01/26/32001-20160126ARTFIG00136-marvin-minsky-l-un-des-peres-de-l-intelligence-artificielle-est-mort.php

L'intelligence artificielle est désormais un domaine largement investi par les grandes entreprises. Facebook, , IBM, Microsoft ou Apple emploient tous des chercheurs sur le sujet, dont les travaux nourrissent leurs produits. Interviewé à ce sujet par le MIT Technology Review, Marvin Minsky s'était montré très sceptique quant à ce nouvel engouement. «Ces dix dernières années n'ont pas été très bonnes pour l'intelligence artificielle. On se concentre surtout sur l'amélioration de systèmes qui ne sont pas très bons», avait-t-il expliqué. «On devrait se débarrasser des grosses entreprises, virer les experts et plutôt soutenir les individus qui ont des nouvelles idées.»:

Les implications des réseaux neuronaux profonds sont nombreuses. Mais ils n'aboutiront jamais à eux seuls à une IA capable de cognition. Dire autre chose n'est que pub et spéculation. Comme les idiots Gates, Hawking et Musk, qui devraient en connaitre un minimum sur leur sujet avant d'ouvrir leur bouche et dire des choses aberrantes sur l'IA pour alimenter le fantasme des gens.

L'IA n'a d'intelligence que le nom et les technologies que ce domaine propose ne sont que des manières détournées de restituer l'intelligence humaine. La machine ne fait que restituer l'intelligence de son concepteur.

OK, AlphaGO, apprend, mais qui lui a conçu son système de collecte de données? Est ce qu'il apprend sur un corpus annoté? Annoté par quoi? Un humain? Un programme conçu par un humain? Dans ce cas, ne peut on pas considérer qu'un système statistique ne doit son intelligence qu'à l'annotation faite de ses données par l'humain? Il n'a fait que raffiner un travail intelligent d'homme.
Dans le monde d'aujourd'hui, il n'est pas besoin qu'un système soit réellement "intelligent", qu'il donne sens à ce qu'il fait, pour que ça n'en pose pas pour autant des questions.
Par exemple, que ferait un AlphaGo branché sur le système financier de transactions à haute fréquence ? Est-ce que "jouer à la Bourse" est plus compliqué que jouer au Go ?

P.S. le papier que vous indiquez montre bien l'étendue des applications. Extrait :
"As another example, Google's DeepMind recently published their results on training deep networks to play seven different arcade games, given only pixel intensities as input, and increasing the score displayed as the objective. The networks they trained were able to surpass the performance of previous game-specific AIs on six of the seven games, and exceeded human expert performance on three of them [24].
Besides computer vision and control tasks, deep learning has also been successfully applied to natural language processing, sentiment analysis, audio analysis, and other fields where knowledge is inherently hierarchical.
"

Définir un jeu gagnant en ayant simplement les pixels en input, en "regardant" l'écran, c'est déjà pas mal.
"Définir un jeu gagnant en ayant simplement les pixels en input, en "regardant" l'écran, c'est déjà pas mal."

On ne fait que définir une machine disant "gauche" ou "droite" selon une classification effectuée en analysant l'image. L'humain ne fait pas cela. L'humain va comprendre ce qu'il y a l'écran. Il va comprendre qu'il a à faire à Space Invaders, comprendre le concept de vaisseau, d'aliens, de tirs, d'obstacles. Etc. Le programme ne fait qu'une analyse statistique pour déterminer si gauche ou droite. Il ne comprend pas l'image qu'il voit et n'y établit aucune syntaxe ni sémantique.

Pire, il n'y a aucune temporalité. Il n'analyse qu'à l'instant immédiat la situation pour la classifier.

Les implications sont importantes, c'est vrai sans le moindre doute. Mais est ce que cela rentre dans le cadre de l'intelligence artificielle réellement? Pour moi, ce domaine informatique porte bien mal son nom tant ce que j'y vois chaque jour n'a rien à voir avec l'intelligence. On ne fait qu'automatiser des taches intellectuelles. Mais l'effort intellectuel n'est pas fait par la machine, mais bien par l'humain qui la conçoit.

Je crois dur comme fer qu'il est possible de faire une vraie IA, mais pas avec ces technologies uniquement, même si elles sont des briques indispensables.
Rien que définir ce qu'est une "vraie" intelligence est un problème. Est-ce un fonctionnement humain, un fonctionnement qu'on pourra voir comme semblable au nôtre pour le dire "intelligent" ?

Mieux vaut sans doute oublier la question anthropomorphique ou de définition pour regarder les effets concrets des systèmes qu'on crée.
Sur le Go, il s'écrivait vers 2012 : "Les programmes sont bien plus faibles que les meilleurs humains".
3-4 ans plus tard, on a un système qui bat le meilleur des humains.

Et à nouveau, quand on voit ne serait-ce que le rôle de l'informatique et de ces principes de jeu dans la finance mondiale, on peut se poser des questions d'importance concrète pour les années à venir.
La différence n'est pas de nature. La différence avec 2012 est que désormais, on utilise des autoencodeurs empilés. A savoir que l'on entraine plus le réseau neuronal dans sa globalité, mais par couches successives. D’où le nom de deep learning. C'est une méthode très très efficace, mais elle ne change pas la nature d'un réseau neuronal artificiel.

Je veux dire, j'ai du coder au moins trois librairies de ce genre de réseau neuronal rien que ces cinq dernières années. Le probleme au go, c'est l'explosion du nombre des possibilités. Il faut une fonction heuristique très fine. Beaucoup plus fine qu'aux échecs. Et c'est bien là la prouesse de DeepMind (et de Giraffe).

L'intelligence, c'est être capable de résoudre un probleme nouveau et ce quelque soit la nature du probleme. C'est la faculté de créer des concepts pour saisir quelque chose qui nous était jusque là inconnu.

Faire une régression linéaire, ce n'est pas de l'intelligence. C'est une méthode mathématique. Aboutir à une régression linéaire à partir d'une bouillie de pixels, c'est un début d'intelligence, très très élémentaire. C'est bien là la puissance des réseaux neuronaux artificiels, ils arrivent dans beaucoup de cas à revenir au cas de la régression linéaire, par couches successives de raffinage des intrants.

Chose aberrante, il n'existe pas beaucoup de recherches sur les réseaux neuronaux agiles. Leur structure est rigide et définie soit par un humain, soit par un algorithme génétique.
J'ai voté votre premier message. C'est assez inattendu pour moi :)


L'intelligence, c'est être capable de résoudre un probleme nouveau et ce quelque soit la nature du probleme. C'est la faculté de créer des concepts pour saisir quelque chose qui nous était jusque là inconnu.

Je suis assez d'accord. D'ailleurs la force de Lee Sedol (le coréen défait) est d'utiliser ce qu'il a appris dans le Go pour socialiser avec ses amis, ou pour cuisiner un met délicat. Sur ces domaines, AlphaGo risque d'être très mauvais.

On est émerveillé par cette «intelligence artificielle» qui bat un champion au go, mais dans le fond, le go est un système hyper-régulé et très spécialisé. ça fait longtemps que les programmes informatiques, ou les machines, battent les être humains sur ce genre de domaines. Or là, j'ai effectivement l'impression que nous sommes face à un Deep Blue (qui avait battu Kasparov aux échecs en 96/97) en un peu mieux, 20 ans plus tard. On remarque surtout qu'en 20 ans, il n'y a pas eu tant d'amélioration que cela.

En 1958, les précurseurs Newell et Simon prédisaient la victoire d'une IA aux échecs dans les dix années. 60 ans plus tard je note surtout qu'on en est toujours aux jeux de plateaux!
D'ailleurs, le papier de DeepMind est trouvable:

http://arxiv.org/pdf/1312.5602v1.pdf

On constate que leur travail consiste essentiellement à prétraiter les données avant de les donner au réseau neuronal. Ils agencent les ensembles de pixels de manière a ce que le réseau neuronal puisse faire sa régression linéaire. De qui se moque t-on?

C'est comme si je vous disais: j'ai inventé le moteur du futur en améliorant l'essence sans plomb.
Il me semble qu'il y a confusion entre disposer de statistiques sur ce qui c'est passé avant et intelligence: ça marche sauf quand une chose possible mais qui ne s'était jamais produite se produit.

Il y a plein de domaines où l'acquisition des informations nécessaires n'est pas possible: - l'expérimentation entraînerait des désastres - elle durerait trop longtemps - les "règles du jeu" ne sont pas vraiment connues - le résultat à atteindre est trop flou - etc.

Dans son bouquin sur la langue parfaite, où il cite les innombrables tentatives des siècles précédents pour élaborer une langue non ambiguë, Umberto Eco s'étonne de ce que les chercheurs en traduction automatique ne les citent jamais.

Dans son bouquin Traité de probabilités, Keynes (qui était d'abord un mathématicien) insiste sur le caractère exceptionnel des cas où une fréquence observée permet d'associer à un événement un nombre mesurant sa probabilité (Jorion - 2015 - Penser l'économie avec Keynes - page 34).

Malheureusement les roboticiens et statisticiens sont beaucoup trop sectaires, dogmatiques et obtus pour prendre en compte ce genre de choses...
????
Evidemment qu'ils traitent les données sur les pixels comme le fait l'oeil et le cerveau, l'intéressant est que la donnée brute soit ces pixels, la même interface informationnelle qu'a un joueur.
"The emulator’s internal state is not observed by the agent; instead it observes an image from the emulator, which is a vector of raw pixel values representing the current screen."
"L'intelligence artificielle n'a rien a voir avec l'intelligence humaine."

AlphaGo repose sur une méthode de MonteCarlo:"
Qui a été inventée par un singe.
Tant qu'on aura besoin d'acteurs humains pour jouer les robots ça ira...
Le truc vraiment flippant dans cette affaire n'est pas tant que des machines apprennent de leurs erreurs mais que les êtres humains reproduisent mécaniquement les erreurs des autres, par exemple par l'emploi sans distance de la fonctionnalité "copier/coller" chez les journalistes - y compris les meilleurs d'entre eux - qui leur fait commettre en boucle depuis quelques jours cette étrange réification de l'intelligence en présentant comme des objets des "intelligences artificielles" en lieu et place de logiciels informatiques, se disqualifiant ainsi définitivement pour dire quoique ce soit d'éclairant pour leurs lecteurs.
Les GPS ne se trompent jamais, vous ne savez juste pas comment les programmer correctement ????
Si le GPS avait existé en 1940, les blindés nazis se seraient embourbés vite fait… Las, ils avaient des "cartes Michelin" où tout est merveilleusement détaillé… Tssss
Je ne vous raconte pas l'effet que me produisit une panne d'électronique toute bête, dans une Twingo toute neuve, à la sortie mouvementée de l'autoroute A 4… Inch allah !
A noté que dans cette "affaire" du GPS, le conducteur a "anticipé" l'injonction du GPS puisqu'il a tourné dès qu'il a pu, et que ce n'était pas une route.
Quand vous voudrez vous faire peur, allez voir les robots militaires qui sont en train d'être mis au point. Sur certaines vidéo les testeurs donnent des coups de pied aux robots pour les faire tomber et jauger leur équilibre, c'est un truc que je ne ferais pas quand leur armement sera en place !
GPS de l'avenir
En 1834 déjà on trouve ça!!! L'idée était d'améliorer les cartes maritimes, on le doit à un dénommé Charles Babbage. On pourrait l'essayer: robuste! Il suffit d'avoir la voiture qui va avec!
Bonjour Daniel
"Quiconque a déjà ainsi dialogué avec une machine apparemment pensante ne peut résister à la tentation absurde de tester sa susceptibilité, voire de rechercher en lui des traces d’émotions humaines, comme on cherche des traces de la vie sur Mars"
Avez-vous déjà essayé de traiter d'imbécile votre iPhone (que vous n'avez plus… au fait tous vos contacts sont-ils maintenant opérationnels ?) lorsque Siri est activé.
Il vous répond "j'essaye simplement de vous aider" essayez.

A ce sujet j'ai souvenir d'un sketch des guignols montrant Bismuth en train de s'adresser à son iPhone pour appeler un correspondant. Génial.
"Quand on aura clôné le joueur de Go de Google dans mon GPS, il est certain qu’il ne m’emmènera plus au fond des impasses des lotissements paumés"
Une mise à jour régulière devrait suffire.
Ah, oui! La musique qui marche au pas, Cela ne me regarde pas...

Rangés, classés, dirigés, choyés, chouchoutés, managés...nous suivons. Enfin la plupart.
Mais, il y a des réfractaires qui ont des voitures qu'ils dirigent.
Ô misère!
Comment une carte IGN, un crayon, un plaisir de tracer sur la carte les chemins de traverses qui seront superbes, même si on dérange les abeilles.

Ne me donnez pas la route, je ne pourrai plus me perdre...et rêver, et faire, et dire!!!

La Panurgie a de magnifiques restes et on s'y roule et on s'y complaît.
Dès fois que ça interesserait des gens, je me permets de signaler cette série de vidéos mises en ligne il y a quelques mois sur youtube. Il s'agit d'une série de leçons "grand public" sur ce qu'il est convenu d'appeler la Révolution Cognitive.

C'est très long (9*2h), en anglais, et pas en HD (ahem...) mais c'est étonnement captivant et instructif. Ca fourmille de remarques épistémologiques, de philosophie/histoire des sciences (e.g. ce qu'est le dualisme, en quoi newton a tué cette théorie et les conséquences que ça a eu sur la manière de faire des sciences depuis), de discussion sur l'étude de la cognition humaine, de la linguistique en particulier, de la biologie et des sciences en général. Le cours est construit, il y a une progression logique, ça ne va pas dans tous les sens.
Après comme l'orateur le dit lui-même, ses positions faisaient/font polémiques mais ses arguments sont développés avec beaucoup de patience et de précisions. Impossible d'en faire un résumé en quelques lignes.

Dans les dernières vidéos (à partir de la 7ème, de mémoire), il s'intéresse un peu plus spécifiquement à tout le hype autour de l'intelligence artificiel. Il y a notamment une longue discussion sur le "test de turing" et son absurdité (du moins, dans sa prétention à définir l'intelligence, ce qu'il interprète comme un contre-sens total de l'article original de turing). Ca me semble intéressant à aller regarder à une époque où la dernière annonce de Google est systématiquement reprise sans le moindre recul scientifique.
Par rapport à AlphaGo, va falloir voir dans les années qui viennent ce que ça change dans l'économie des jeux d'argent en ligne. Dans un jeu comme le poker, par exemple, les principes d'AlphaGo devraient donner un niveau supérieur à la moyenne des humains, et comme c'est un jeu à somme nulle, cela suffit à garantir statistiquement un bénéfice.
Très juste.

Il est déjà "avéré" que les voitures sans conducteur ont moins d'accidents que les hommes.
Je vous fiche mon billet que sous 30 ans il sera interdit à un être humain de conduire.
Le monde ressemblera à Total recall (chauffeur de taxi humanoïde complètement crétin, mais "sûr"), à Elysium (drones partout liberté nulle part et conseiller de probation robotisé).

Il est d'ailleurs temps d'écrire des fictions avec des juges automatiques, qui assureront enfin, dans un environnement concurrentiel et incertain, une "vraie" sécurité juridique, et qui cesseront de faire comme ces crétins d'humains qui croient que la loi s'interprète. Quelques mots clefs (qualifications applicables prédéterminées par un procureur lui même automatisé), un bon programme informatique générateur de décisions de justice et hop, un jugement !

Pas cher, rapide, efficace, la panacée quoi. Bienvenue dans le meilleur des mondes !

DÉCOUVRIR NOS FORMULES D'ABONNEMENT SANS ENGAGEMENT

(Conditions générales d'utilisation et de vente)
Pourquoi s'abonner ?
  • Accès illimité à tous nos articles, chroniques et émissions
  • Téléchargement des émissions en MP3 ou MP4
  • Partage d'un contenu à ses proches gratuitement chaque semaine
  • Vote pour choisir les contenus en accès gratuit chaque jeudi
  • Sans engagement
Devenir
Asinaute

5 € / mois
ou 50 € / an

Je m'abonne
Asinaute
Généreux

10 € / mois
ou 100 € / an

Je m'abonne
Asinaute
en galère

2 € / mois
ou 22 € / an

Je m'abonne
Abonnement
« cadeau »


50 € / an

J'offre ASI

Professionnels et collectivités, retrouvez vos offres dédiées ici

Abonnez-vous

En vous abonnant, vous contribuez à une information sur les médias indépendante et sans pub.