107
Commentaires

"Google a de bonnes raisons de ne pas rendre son algorithme transparent"

Les algorithmes nous gouvernent. Mais que veulent ceux qui gouvernent les algorithmes ? Dans son dernier ouvrage, A quoi rêvent les algorithmes ? Nos vies à l'heure des big data (Seuil), le sociologue Dominique Cardon s'interroge sur ces séries de calculs dont nous avons presque oublié l'existence à force de les fréquenter : PageRank de Google, suggestions d'amis Facebook... Nous sommes allés l'interroger sur le "conservatisme" d'Amazon et l'idéal "méritocratique" de Google, mais également sur des sujets non évoqués dans son ouvrage, et non moins importants : les applications possibles de ces calculs à grande échelle dans les domaines de la défense et de la surveillance de masse.

Derniers commentaires

Moi, les algorithmes, je leur fais confiance. Ceux de Windows 3.1 ont fonctionné pendant 23 ans à Orly. Si un con n'avait pas posé sa tasse de café sur le floppy disk on repartait pour 20 ans !
Question (vraiment!) idiote:

Il a bien fallu que quelqu'un rédige ce fameux algorithme, non?(ou quelques uns...)
C'étaient pas des surhommes...
Sûrement pas des génies...

Alors pourquoi ce qui a été possible, et réalisé à un moment par quelques uns ne pourrait pas être reproduit par queques autres?

Y a un truc qui m'échappe...
Moment de détente: en Belgique un "chroniqueur informatique" à la radio a apparemment vu l'émission et en a fait une soupe pas possible, c'est à mourir de rire http://www.rtbf.be/lapremiere/emissions_matin-premiere/nos-rubriques/matin-premiere-vous-explique/article_l-algorithme?id=9130983&programId=60

ça devrait bien faire poiler Dominique Cardon, si quelqu'un a l'occasion de transmettre ... :)
Je débarque tout juste de mon escalier.
Déjà, le titre me déclenche de fortes démangeaisons.

Si je sais ce qu’est un algorithme, j’ai du mal à saisir ce qu’est un algorithme « transparent ».
Est transparent tout ce qui laisse voir ce qui est derrière.
Or un algorithme est un texte, écrit suivant une grammaire et une syntaxe bien précises.
Ce texte décrit une suite d’actions à mettre en œuvre pour arriver à un résultat spécifié.

Derrière un algorithme, il n’y a rien à « voir ».
Il m’eut suffit que l’algorithme se laisse lire.
Tout court.
Pour parler des algorithmes on se tourne vers un sociologue ???
Il ne s'agit pas de remettre en cause la qualité de M. Cardon, il est excellent.
Mais enfin, pour décortiquer un sujet pareil on n'aurait pas pu s'adresser à heu... ben au hasard un informaticien ?
Je sais bien que nous sommes d'irrécupérables associaux - et totalement inintelligibles qui plus est - mais sur 65 millions de personnes en France, il doit bien y avoir un programmeur suffisament socialement fonctionnel pour pouvoir participer utilement à une émission sur un tel sujet, non ?

Je reste toujours sidéré par la capacité des gens à craindre l'impact des technologies informatiques sur leurs vies tout en refusant obstinément d'en discuter directement avec ceux qui font concrètement ces technologies.

Bref, je ne sais pas si la technique domine le monde mais en tout cas ce n'est certainement pas le cas des techniciens...
Notre incapacité chronique à nous faire réellement entendre du reste de la société: ça c'est un sujet sur lequel je serai ravi d'avoir l'expertise de M. Cardon...
Moi j'ai adoré cette émission. Déjà Cardon est très clair, pas du tout rébarbatif, concret. Justine est parfaite en intervieweuse et c'est d'un calme revigorant. Pas de question intempestive à la "Daniel", un dossier bien préparé. Ca repose ! Daniel, merci de prendre exemple sur Justine qui a très bien mené son débat. Ce que ça fait du bien ! Laisser parler son interlocuteur et lui poser les bonnes questions, j'ai tout compris. Passionnant ! Bravo Justine.
« Selon ce que rapporte Bloomberg [26/10/2015], RankBrain serait un des centaines de critères de l'algorithme de Google, mais tout de même le 3ème plus important ». http://www.webrankinfo.com/dossiers/google-search/rankbrain
Tout à fait passionnant . Merci
Merci pour cette émission très intéressante !

Juste une petite contestation : dans le film Minority Report, les prédictions ne sont pas infaillibles. ;)
Nonobstant le grand intérêt de cette émission, il faut noter une certaine naïveté dans les propos tenus sur l'analyse textuelle qui serait "facile" cantonnée au constatatif mais difficile quand il faut prendre en compte l'énonciateur et faire de l'analyse des "sentiments".

Je peine à imaginer ce que pourrait être un texte sans énonciateur ...

Idem pour du "pur" constatatif ....

D'excellents auteurs ont relevé la multitude de niveaux de langage qui anime notre verbe, même le plus trivial. Par exemple, si l'on dit "passe-moi le sel", un analyste pourrait en déduire que le locuteur demande à son interlocuteur de lui passer le sel. Il n'en est évidemment rien, l'essentiel de l'échange entre ces personnes et leurs éventuels témoins se passe ailleurs, dans une négociation toujours renouvellée de nos relations. Un infime détail dans la diction, le timing etc. ( détails y compris inconscients ) pourra signifier une multitude de choses pour ces personnes bien au delà ce simple énoncé constaté.

Réduire la parole humaine à un simple transfert d'information est comme réduire une musique à une simple succession des notes.
L'algorithme de Google est le suivant : poGnon, pOgnon, pognOn, poGnon, Lieu géographique et pertinencE. Ca fait bien G.O.O.G.L.E, j'ai retrouvé mes petits.

Il faudrait être bête pour ne pas s'être aperçu que les premières occurences de chaque recherche est une page publicitaire :-)

Je me sers de Google naturellement mais je regarde les adresses web en premier lieu, ensuite mon regard se porte sur le contenu.

Parole de documentaliste !
Merci c'est une émission très intéressante, le sujet est crucial.
Il faudrait mener le même type d'entretien, sur le même sujet avec des gens différents :)
Notamment un "scientiste" pur jus (j'écris ca affectueusement, je m'en sens proche :o) ).
Le débat sur l'IA est très important, surtout à l'heure ou les robots qui prennent seuls, oui oui seuls, la décision de tuer arrivent.
Merci Justine (pour Cardon et K.Dick, le titre du bouquin du sociologue étant d'ailleurs une référence directe à ce dernier).
[sub]Sinon, je suis d'accord avec Dorian Silvestre au-dessus quant à la très mauvaise gestion du son, entre toi et Cardon, et entre vous et les extraits...[/sub]
Bonjour Justine,

Merci pour votre émission.
J'ai juste une réclamation du point de vue de la prise de son.
Pourriez-vous faire un petit effort sur le niveau de ce dernier et uniformiser toute l'émission car passer de votre débat qui parfois nous donne l'impression que votre micro est loin de vous et les sujets de reportage qui nous hurlent dans les oreilles, je ne trouve pas cela très agréable.

Merci encore pour votre travail.

Bonne journée
Bon, c'est pas tout ça mais si je récupère l'algo de google, il va me falloir combien de temps pour le coder en ook ?

--
ASI a toujours besoin de nouvelles émissions, de nouvelles idées, bravo !
(il y a un petit côté Hors-série, le site des amies)
" Vous n'imaginez pas la force des gens qui veulent truquer Google"
Me souviens de l'époque pas si lointaine où des sites mettaient plein de mots clés foutraques pour passer en tete quelque soit la recherche
Très très bonne émission !! Bravo.
Très bonne émission !

Sociologue très intéressant, qui converge vers une interface qui ne l'est pas moins.

Un peu "naïf" peut-être quant à "l'avancée réelle" des modèles mathématiques.

Si Stephen Hawking tire la sonnette d'alarme de l'éthique, cela n'est pas un hasard.
Le gars a comme qui dirait une perception pour le moins intuitive de ce qu'est un algorithme.

Me fait penser que la france gagnerait à "soigner" les "deep mateux" de criteo ... qui ont probablement "croisé la route" de Gustave Malécot et Antoine-Augustin Cournot.

Manière de cokille vide & name dropin' ;)

ps : si DC est "motivé" pour une discussion autour de hasard & nécessité autour d'une boisson chaude (l'hiver arrive ! :) j'cherche des amis ;)
merci pour cette très bonne émission.

Quelques remarques:

1) Il faut arrêter d'employer le mot "les algorithmes" à tort et à travers. ll faut comprendre que les programmes informatiques sont tous une suite d'algorithmes. Car à la base,les puces électroniques effectuent simplement une suite de traitements. Un programme informatique est une suite de calculs. Les "codes informatiques" sont des suites d'instructions que l'ordinateur (en particulier le processeur) va calculer. Tout "code informatique" effectue un algorithme. Donc ce qu'on appelle un algorithme, c'est simplement une recette de cuisine qu'un ordinateur peut faire.
Tout en informatique utilise des algorithmes. Donc il ne faut pas dire "les algorithmes sont dangereux, ceci, ou cela", ça n'a pas de sens. Utiliser le mot "algorithme" est une sorte de mode qui est venue remplacer l'ancien fantasme sur "l'informatique" (adieu obscure informatique, bonjour les algorithmes !). Il existe des algorithmes de recherche, de classement, de fouille de donnée, de statistiques, etc. Soyons précis quand on en parle.
Ou alors il faudrait inventer un mot qui concerne "les usages modernes de l'informatique", en général. Mais pitié, pas "algorithme".

2) Le problème des moteurs de recherche est central sur internet, puisque la quantité d'information à trier est gigantesque. Les algorithmes de classement sont donc primordiaux. Comme google est dominant, ses algorithmes ont une influence (un pouvoir) gigantesque. Car l'algorithme de google est exactement comme l'éditeur en chef du journal. Il trie, hiérarchise l'information, et en fait parvenir une toute petite partie au grand public, qu'il juge pertinent.
Et en effet, l'algo de recherche de google a prouvé son efficacité. Ce qu'il juge pertinent est aussi bien souvent jugé pertinent par ses utilisateurs. Sa rapidité en a scellé sa popularité, à l'époque. Il a aussi l'avantage de sembler être plutôt neutre politiquement (car ses algo sont basés sur des critères assez objectifs, pour pouvoir traiter indifféremment n'importe quelle question; il n'empeche que de par son caractère d'apprentissage statistique, il fait ressortir les dominants dans leurs domaines respectifs, et en ce sens il perpétue le système).

Mais le problème c'est que c'est une entreprise privée (et étrangère qui plus est). Donc il est dangereux de lui octroyer autant de pouvoir. De plus, c'est une entreprise commerciale. Il n'est pas raisonnable non plus de croire que l'argent (ou les possesseur du pouvoir en général) ne va pas à tout le moins tenter de pervertir le système (défendre ses propres intérêts, au détriment de tout le reste). En tout cas, confier un tel pouvoir à si peu de gens, et sans aucun contrôle, est indéniablement dangereux.

Dans l'émission, Dominique Cardon accepte sans grande réserve que google garde secret son algorithme, pour des raisons de neutralité du net, dit-il. Comme quoi les grandes puissances (financières ou autre) prendraient le pouvoir sur le net (si j'ai bien compris), si google publiait son code informatique.
Moi je crois plutôt que c'est 1) pour des raisons commerciales. Car si google révèle son algo publiquement, celui-ci ne vaut plus rien, puisque d'autres peuvent fournir le même service gratuitement (NB: google pourrait survivre à ça, il fait plein de choses "gratuitement"). Mais surtout 2) pour garder le pouvoir qu'il a ! En gardant son algo, les gens doivent passer par eux (google).

(Le problème c'est qu'Internet est public. Mais que l'Etat (i.e. le soi disant garant de la chose publique - la République), qui d'ordinaire s'empresse de contrôler et "guider" ses [s]moutons[/s] citoyens, s'est là complètement fait dépasser par les entreprises privées (comme le souhaite le libéralisme triomphant d'ailleurs, ils l'ont fait). L'Etat aurait pu promouvoir un service public de recherche et d'information sur internet. Que les citoyens gardent le contrôle (un peu, en théorie). Directement (organisme public) ou indirectement (en soutenant l'open source). Mais non, ils ont visé le minitel, trop tôt, et ils ont complètement raté le coche (faute de financement et de soutient à la recherche publique). Donc aujourd'hui, la hiérarchisation des informations est donnée (gratos, ou même avec nos impôts tant qu'on y est, via les "aides à la presse") à des entreprises privées, soumises aux lois du marché, aux actionnaires, à des intérêts contraires à l’intérêt commun, bref à nos chères "zélites" (cocaïnées certes, mais en toute impunité la plupart du temps). Merci la droite, merci le PS, et merci le libéralisme.)

Maintenant que se passerait-il si google rendait son algo public ? Il est peu probable que google perde son emprise. Néanmoins, les alternatives gratuites et publiques (open source) pourraient émerger, et ainsi diminuer le pouvoir de google en le partageant. On pourrait aussi l'améliorer. Il me semble faux de croire que des entreprises commerciales "prédatrices" (en tout cas plus dangereuses que google à court terme, comme certains lobbys puissants) pourraient remplacer google. D'ailleurs, elles sont déjà à la manoeuvre.



En tout cas, pour faire des émissions de qualité, allez plus souvent interviewer des chercheurs (publics), par exemple dans nos universités (encore publiques). Il y a plein de sujets et de gens intéressants !
J'ai quand même un peu l'impression que la "puissance" de l’algorithme de Google, et notamment du Page Rank, suppose des capacités de crawl et de stockage absolument gigantesques. Ces capacités dont l'infrastructure sous-jacente (i.e. des fermes de de serveur, des calculateurs, et.), Google a pu les développer pendant des années, et leur reproduction/duplication aujourd'hui serait probablement impossible à des coûts supportables par des moteurs alternatifs.
D'où une question: l'infrastructure de Google, au -delà de l'algorithme, ne constitue-elle pas une facilité essentielle, au sens juridique du terme, et ne doit-on pas se poser la question de son accès, plus qu'à celui de l'algo?...
En tous cas la législation existe qui le permettrait, aux Etats Unis comme en Europe.
Au fait Justine, cette émission, là en pleine semaine, c'est juste one shot ou ça préfigure une nouvelle série, un peu comme la série estivale d'il y a deux ans? Parce que ça serait une vraiment bonne nouvelle: un peu de socio des médias dans un média socio...
Hello Sebastien,

Ça ne préfigure rien de particulier (pas d'autres choses en boîte pour le moment), mais si on en a l'occasion, on ne s'interdira pas de nouveaux entretiens sur ce format...
Et bien , surtout ne vous interdisez rien et encore merci.
Ça fait un bail qu'on n'a pas vu une chronique de Jean-Marc Manach.
Est-ce qu'il est toujours à bord du navire Arrêt sur Images ?
Voté

Ça fait un bail qu'on n'a pas vu une chronique de Jean-Marc Manach.

Est-ce qu'il est toujours à bord du navire Arrêt sur Images ?



Modifié 1 fois. Dernière modification le 22:19 le 29/10/2015 par Julot Iglézias.


Je me posais la même question.
"Ça fait un bail qu'on n'a pas vu une chronique de Jean-Marc Manach."
Depuis le 22/04/2015 (émission) et 21/06/2015 (chronique)
Moi je crois plutôt que c'est 1) pour des raisons commerciales. Car si google révèle son algo publiquement, celui-ci ne vaut plus rien, puisque d'autres peuvent fournir le même service gratuitement (NB: google pourrait survivre à ça, il fait plein de choses "gratuitement"). Mais surtout 2) pour garder le pouvoir qu'il a ! En gardant son algo, les gens doivent passer par eux (google).

Bien que d'accord sur bien des points de votre intervention votre vision des choses semble légère sur ce point. Tout d'abord, vous abusez vous aussi de l'utilisation du terme «algorithme» comme si c'était magique. Ce n'est pas l'algorithme Google, mais les algorithmes. Répartis probablement dans plusieurs dizaines ou centaines de programmes, écrits dans différents languages.

Google utilise à peu près 200 critères pour classer les sites. Certains nécessitent des algorithmes complexes pour les analyser, d'autres des algorithmes très basiques. Ces critères sont connus, et les programmes qui les analysent reproductibles.

Le secret de Google, c'est la sauce: La pondération des différents critères, leur corrélation et influences les uns sur les autres. Pas une montagne de lignes de codes obtenus après des milliers d'heures de travail, mais plutôt des valeurs retouchées hebdomadairement pendant des années, afin de l'améliorer continuellement, et aussi de le rendre moins «prédictible».

Par ailleurs, une recherche récente sur les algorithmes de Google a consisté, non pas à tester des pages pour évaluer les critères, mais à reproduire Google, Afin d'arriver au résultat le plus proche possible. Ils ont obtenu des résultats équivalents à plus de 80%. Comme quoi ce n'est pas impensable pour une société de refaire un moteur de recherche similaire.

L'argument suivent donc:
1) pour des raisons commerciales. Car si google révèle son algo publiquement, celui-ci ne vaut plus rien, puisque d'autres peuvent fournir le même service gratuitement
ne tient pas. Certes les différents programmes écrits ont une certaine valeur commerciale, mais ce n'est pas le point principal. De plus, «gratuitement» me fait bien rire. Derrière Google il n'y a pas qu'un algorithme, il y a surtout des infrastructures collossales pour traiter les informations et pour fournir des réponses très rapides. Ils ont effectué énormément de R&D à ce niveau et bénéficie d'une solide éxpérience dans ce domaine. Vous auriez beau bénéficier de leur programmes, vous en feriez quoi? Avant d'avoir un service un peu correct, il vous faudra de toute façon investir des millions.

2) pour garder le pouvoir qu'il a ! En gardant son algo, les gens doivent passer par eux (google).
Pas compris, pourquoi devrait-on passer par eux?

Maintenant que se passerait-il si google rendait son algo public ? Il est peu probable que google perde son emprise. Néanmoins, les alternatives gratuites et publiques (open source) pourraient émerger, et ainsi diminuer le pouvoir de google en le partageant
Je m'inscrit en faux à nouveau. Rendre l'algo public ne permettra pas de «donner le pouvoir aux entreprises» non plus. Enfin ça leur donnera le pouvoir sur Google. Mais si cela arrive, oui, en effet, les gens migreront peu à peu vers d'autres solutions, qui existent déjà (DuckduckGo en libre, Qwant, ou même Bing par exemple) et fonctionnent très bien.

Il ne faut pas sous-estimer la chute possible d'une entreprise. Être à 90% de part de marché la rend en réalité très fragile aussi. Pas de possibilité de progresser, seulement de perdre. De plus le web regorge d'ascensions spectaculaires… et de descentes vertigineuses.
Ignatius m'a l'air de maîtriser le concept d'algorithme.

Il est moins "pro google" que vous.

Pour ma part je suis très respectueux des nombreux projets open source (qui leur donnent "le coup de rein" nécessaire pour garder une position quasi monopolistique).

Je continue de penser qu'il faut mettre la pression pour qu'il n'y'ait plus de règles cachées.

Un algorithme est une règle.

pS : Dans un autre registre ... Apple "risque de descente vertigineuse" ?
pS2 : Les "techniques d'évasion fiscale" sont-elles identiques ? (Pardon, je voulais dire optimisation cachée).
Pro Google? Non pas vraiment.

La position ultra-dominante de Google est un problème. L'évasion fiscale aussi. Mais créer d'autres problèmes pour règler un problème de manière détournée je ne vois pas l'intérêt. Cela ne signifie pas non plus que de ne pas dire systématiquement du mal de Google fait de moi un «pro-Google». Bonjour la vision manichéenne.

Un algorithme est une règle.
Non, on peut parler de processus, d'ensemble d'instruction, mais pas de règle. Ce serait plutôt la méthodologie pour appliquer la règle, que la règle elle-même.
Bonjour,

Donc si l'on ne recrache pas la définition de wikipedia ou une qui vous convient on est illégitime à parler d'algorithme ?

L'algorithme pageRank / les algorithmes pageRank : l'un et l'autre se dit ... ou se disent.
(Question de représentation : un ensemble qui se subdivise ou des modules qui s'additionnent : en fait un mélange des 2, bien souvent).

De fait, un processus répond à un ensemble de règles.
Un processus peut se subdiviser et / ou s'adosser à d'autres processus.

Parler de la dérivée d'une fonction ... c'est aussi parler de la fonction. (fonction = algorithme ? ;)

On peut chercher à monter dans la complexification d'un concept sans disqualifier les "moins techniques".

Google est génial ... mais va (est déjà ?) une problématique à contraindre par l'éthique ... énormément de pouvoir concentré ... beaucoup plus que ce que l'on anticipe, à mon sens.
De fait, un processus répond à un ensemble de règles.
Un processus peut se subdiviser et / ou s'adosser à d'autres processus.

J'ai bien peur que vous ne parlier pas du même processus.
Merci pour votre apport g2.

On est sur des concepts en poupées russes :

L'idée :
Processus = Un ensemble d'instructions à exécuter
Instruction = règle

"la méthodologie pour appliquer la règles" (les, en fait sinon il n'y' a pas besoin de méthodologie ... juste "feu" !:) ... est en elle-même une règle de niveau supérieur.

grossoModo, on est sur des "opérations" complexes qui reposent sur des opérations moins complexes ... en poupées russes ... jusqu'à des "règles de base" genre :1+1=2.

12/4=3 est à la fois le résultat d'une opération ... mais devient une "règle" si je connais mes tables par cœur.
Quand on utilise une définiton autre que celles acceptées par les spécialistes que sont les matheux ou les programmeurs, on ne devrait pas tenter de faire de pédagogie de la discipline.
Le but de l'émission était de présenter des notions au grand public. Une recette de cuisine est un algorithme: nombre fini d'étapes; partant des ingrédients pour arriver à un résultat, vous préférez mélanger, étendre, aller plus loin pour ceux qui ont compris ou pas, lu autre chose ou pas, ce n'est ni scientifique ni pédagogique.

Par contre "Fonction = algorithme" c'est une ineptie.
La fonction pagerank ou la fonction sinus existent pour tout le monde sans algorithme: il suffit d'installer un gadget sur son navigateur ou d'allumer une calculatrice pour avoir la valeur (et bonne chance pour la dérivée de Pagerank, par rapport à quoi au fait?).
L'algorithme c'est la méthode qui permet d'arriver à cette valeur, et savoir comment Amazon me propose tel livre, comment Facebook ou Twitter mettent en avant tel ou tel sujet, c'est aussi intéressant que de savoir pourquoi Pujadas met en une du journal tel sujet d'actualité ou pourquoi Le Monde ou Le Figaro traite tel sujet selon un certain angle, c'est une orientation du point de vue, pleinement le sujet de @Si.

Pour communique' de façon efficace, il faut avoir des termes communs, or visiblement vous utilisez algorithme, règle, processus, problématique ou éthique dans un sens qui est le vôtre, pas celui des dictionnaires ou ouvrages de référence, donc pas moyen de communiquer. Pour vous citer c'est "monter dans la complexification". J'appelle ça compliquer le débat et rendre la communication impossible, ça évite d'inventer des mots, maîtriser la définition de "compliqué" ou "complexe" c'est mieux que frimer avec "complexification", et employer "problématique" à la place de problème ou question c'est juste ridicule.
Je partage beaucoup de vos points de vue, et en ai même exprimé un dans quasiment les mêmes termes que vous ici.
Mais précisément, quelles chances ont les solutions alternatives que vous évoquez, sans l'accès aux infrastructures de stockage et de traitement que possède et opère Google?
Ne pourrait-on pas envisager une sorte de "mutualisation" de ces infrastructures, quitte à démanteler l'entreprise en en séparant les activités (exemple d'AT&T dans les années 80)? A ce titre la création de la holding Alphabet pourrait bien être la prise en compte de cette "menace" par Larry Page, non?...
J'ai honte
je n'ai pas encore vu l'émission ni lu tout le forum

en revanche, à propos des algos mis en place par l'Etat, j'ai lu ça

https://medium.com/@pierre_obrecht/ch%C3%A8re-axelle-d71c4bad2093

pour partager...
Si je puis me permettre une question : qu'est-ce que signifie "algorithme" pour vous ?

Le texte qu'il proposait pour la loi disait "ouverture du code des algorithmes publics" mais en langage plus informatiquement correct, on devrait plutôt demander que soit publié : le code source des applications de traitement des données utilisées par les services publics.

Le texte transformé par Lemaire ("les règles définissant ce traitement ainsi que les principales caractéristiques de sa mise en œuvre") correspondrait plutôt à un cahier des charges de logiciel avec éventuellement quelques formalisations algorithmiques, assez loin de la demande initiale dès lors que celle-ci n'était pas clairement intelligible (si j'avais mauvais esprit, je dirais que cela permettait d'en faire ce qu'on voulait d'où sa sélection...).

En fait, de manière générale, il faudrait demander que l'Etat et les collectivités locales ne fonctionnent qu'avec du logiciel open source en matière de traitement de données personnelles, de marchés publics etc., ne demande que du développement logiciel sur ces principes, que d'emblée il n'y ait pas de licence propriétaire. Mais bon, c'est mal barré, vu la faiblesse de la culture informatique des responsables.

Et pour l'instant on échappe au pire mais quand on voit la naïveté de certains élus qui croient que le problème c'est d'être piraté, qui ont du mal à saisir que c'est plutôt le même problème que celui des logiciels embarqués de Volkswagen dès lors qu'il y a des enjeux (combien ça vaut de pouvoir jeter un oeil discret aux dossiers de marché publics ? ça donnerait quoi un bug sur du vote électronique ? etc.), il va falloir rester vigilant.
Si un matheux peut éclairer cette énigme ...

"La quantité d'information apportée par un événement est inversement proportionnelle à la probabilité de réalisation de cet événement." ( Shannon ).

Dès lors, quel légitimité apporter à une analyse statistique des informations, qui est justement fondée sur la loi des grands nombres ?
Merci Justine, et merci @si, pour cette remarquable émission, d'où j'ai surtout retenu (mais pas que) la différence radicale entre prédiction et probabilité. Il y aurait encore probablement plein de questions à (se) poser sur les notions de " régularité" , sur les prétentions/espérances déterministes des marchands et sur la tartuferie du Big Data. Questions dont on débattra peut-être sur le forum?....
J'aime bien l'idée de l'algo qui explique à l'utilisateur qu'il n'est intéressé que par tel sujet et qu'il devrait regarder d'autres sujets.
Le reste de l'émission est très bien, et Dominique Cardon est très clair et très intéressant (ce qui est rare pour un sociologue). Et puis il cite le LIAFA, c'est la première fois que j'entends une émission citer un vrai labo d'informatique.
Pourquoi Justine ne pouvait-elle pas ne serait-ce que jetter un oeil à la définition d'algorithme avant de faire cette émission ?

Dès l'introduction, elle présente les algorithmes comme "des espèces techniques de calculs qui devraient nous permettre peut être de déterminer dans quel lieu, à quel moment un crime va se produire". Une minute plus tard "l'algorithme de Google c'est plus une série de chiffres infinie".

non Non NON NNNNNNNON !!!!!!

Allez, un petit tour sur wikipedia vous aurait permit de trouver une définition à la fois simple et correcte: "Un algorithme est une suite finie et non ambiguë d’opérations ou d'instructions permettant de résoudre un problème ou d'obtenir un résultat donné"

Suite finie. Pas infinie ! Et vous n'expliquez jamais qu'un algorithme est toujours définie pour résoudre un problème donné. Ni que des algorithmes, on en utilise tous les jours. "Prenez à droite, et au prochain feu tournez à gauche" c'est un algorithme. Evidemment, ca fait moins peur quand on le dit comme ça.
Abonnez-vous

En vous abonnant, vous contribuez à une information sur les médias indépendante et sans pub.