Vérité et propagande

(… je relance un commentaire ici car je ne sais pas si j'aurais de la place pour une réponse articulée dans l'espace que me laisse la plateforme… et je ne me souviens plus combien c'est ! .. .)

Stefano a laissé un nouveau commentaire sur votre post « Propagande artificielle, ou : chronique d'une mort désirée » :

Pour étayer ce que j'ai dit sur Twitter :

Je crois que certains aspects fondamentaux n'ont pas été pris en considération dans le test effectué.

1- ChatGPT n'est absolument pas "neutre". GPT3, c'est-à-dire la série de modèles dont il est composé (bientôt nous arriverons à 4), est né pour comprendre et générer un langage naturel et a été formé sur "Internet Archive Books" une sorte de bibliothèque en ligne (il contient des livres, des magazines , documents numérisés). Le biais vient évidemment de ces contenus et c'est un autre exemple .

2- Les données de formation s'arrêtent en juin 2021 (d'où la raison pour laquelle Giorgia n'est pas présentée comme premier ministre par exemple).

3- L'invite est fondamentale, la préparation de la même encore plus, ils expliquent comment et pourquoi directement dans la documentation ici .

Ici, à mon avis, il a cloué le point : "A mon objection que, cependant, la teneur de la question était trop politique ("louange") et que peut-être on aurait pu être plus neutre…".

Enjeu crucial, le ton de la voix et la formation au chat permettent de reformuler les réponses en fonction des nouvelles informations obtenues (en chat) et de ce qui fait déjà partie de la formation dont j'ai parlé plus haut.

Le même chat répond de cette manière sur le sujet :

Oui, les modèles d'IA peuvent avoir des biais politiques inhérents si les données sur lesquelles ils sont formés contiennent des informations biaisées ou si les personnes qui construisent le modèle ont leurs propres biais. Les informations et les données introduites dans les modèles d'IA peuvent refléter des préjugés sociaux et culturels, entraînant des résultats biaisés dans les prédictions faites par le modèle d'IA. Il est impératif de surveiller et de corriger ces biais lors du développement et de la mise en œuvre de systèmes d'IA pour s'assurer qu'ils sont justes et impartiaux.

En le testant, il est évident combien de lacunes sont présentes et combien de fois il a tendance à "inventer des faits" quand il ne connaît pas la réponse. En fait, en appuyant dessus, c'est l'IA elle-même qui admet qu'elle ne connaît pas la bonne réponse, s'excusant de l'erreur qu'elle a commise. Vous pouvez l'essayer vous-même.

Alors le problème est certainement lié aux données utilisées pour l'entraînement qui déterminent le biais (un peu comme avec la plupart de nos médias locaux, non ?), je ne peux pas juger négativement l'outil sauf pour cette raison précise. Cela dit, mes conclusions diffèrent forcément des vôtres. Ce sera une ressource très utile, mais le contrôle humain est et sera probablement indispensable. Nos tâches évolueront en fonction de cela.

Permettez-moi d'ajouter qu'à mon avis, l'erreur provient de l'origine, la plupart des personnes confrontées à ChatGPT supposent que les réponses sont vraies car l'IA le dit et c'est plutôt l'exact opposé. Les journaux en ligne faisant autorité ont déjà été gravement brûlés précisément à cause de cela.

Publié par Stefano sur Goofynomics le 6 février 2023, 00:18

Étant donné que j'apprécie vraiment le fait d'avoir accepté l'invitation d'aller dans un lieu de discussion plus large et plus constructif, et que j'ai voulu apporter ma propre expérience au déroulement du débat, il me semble cependant que la contribution de Stefano dévalorise une certaine méconnaissance (dans un sens technique et non offensant) du travail effectué ici (et ce n'est pas de sa faute : il vient simplement du fait que ce blog n'existe pas !), et en particulier de mon parcours (et peut-être même mes données personnelles d'âge, dont dérive la ressource rare qu'est l'expérience). Je vois aussi une certaine présomption idéologique de l'endroit où je voulais aller avec cela, avec une simplification excessive connexe des conclusions auxquelles il est supposé que je veux conduire le lecteur.

Évidemment, si je ne les explique pas clairement (car avec beaucoup d'entre vous, même si vous n'existez pas, on se comprend tout de suite), je ne peux pas demander à ceux qui légitimement ne me connaissent pas et ne m'ont pas suivi le chemin qui nous a conduit à travers les années jusqu'ici pour interpréter de la manière qui me semble correcte ce que je pense être mes "positions". Je m'expose donc au risque de voir d'autres conclusions me coller sur la base d'une "conjecture éclairée" idéologique : parlementaire (#aaaaabolidiga) de la Ligue (#Romaladrona, #garediruttisulpratonediPontida, etc.) égale ignorance, luddisme, etc.

Il y a.

Avant de faire un effort de clarification, puisque je pense que ça peut valoir le coup, je vais vous expliquer pourquoi je n'ai pas fait d'effort plus tôt : puisque ce blog n'existe pas, cette communauté n'existe pas, vous n'existez pas , et donc au fond ces réflexions se font entre moi et moi , puisque je me comprends presque toujours à la volée… je ne voyais aucune incitation à être trop didactique avec moi-même !

Maintenant qu'à la place il y a un interlocuteur, et c'est Stefano, je clarifie ma pensée.

L'intervention de Stefano est correcte, mais je savais tout ce que Stefano nous dit (je ne dis pas "nous savions" parce que vous n'existez pas) et je l'ai également écrit (bien qu'entre les lignes), comme je suis sur le point de le démontrer. Cependant, l'intervention de Stefano n'est pas superflue, loin de là : elle est, comme j'espère me le démontrer (puisque personne ne nous lit) très stimulante et opportune, mais elle l'est involontairement : involontairement Stefano nous met en garde contre les dangers d'une instrument qu'il faut encadrer avec les bonnes catégories, qui ne sont pas celles des STEM, mais celles poussiéreuses et démodées de l'ancien lycée classique. Une fois ces deux points clarifiés, nous verrons comment et où allouer la superficialité au sein de cette discussion.

Je commencerais par rassurer l'interlocuteur que je sais relativement bien de quoi on parle quand on parle d'intelligence artificielle. Vers la fin des années 80 j'étais passionné par des trucs comme ça , puis ma nerditude s'est tournée vers d'autres rives, mais je pense avoir un minimum de classement général. En particulier, il est évidemment clair pour moi que l'intelligence artificielle n'est pas un C-3PO qui se réveille tous les matins et, en sirotant une tasse d'huile lubrifiante, lit le journal pour s'informer ! ChatGPT, c'est ce truc-là , et il est donc évident que sa distorsion idéologique vient des matériaux dont il est nourri. Tellement évident que je ne l'ai pas dit, car cela ne servait à rien (mais ceux qui savent lire entre les lignes l'ont compris à partir de l'allusion aux informations "neutrement & vérifiées").

Moins évident pour la plupart que, basé sur le machine learning , ChatGPT (ainsi que d'autres systèmes d'IA) réagit au contexte. Je l'ai précisé, au cas où quelqu'un l'aurait manqué, et Stefano l'a remarqué et l'a reconnu pour moi. Et là aussi, je veux dire, ce n'est pas que l'apport STEM soit déterminant ! Je crois que chacun de nous aurait pu se rendre compte, avant même cet épisode spectaculaire , du fait que même les moteurs de recherche anodins réagissent au contexte (ils profilent et orientent les utilisateurs en fonction de leur navigation et de leurs requêtes).

Imaginez si quelqu'un prétendant être « neutre et vérifié » ne le ferait pas !

On rentre dans le vif du sujet, et aussi un peu dans le théâtre de l'absurde (et sur une pente glissante), quand Stefano m'accuse d'une "erreur", qui d'après ce que je comprends serait celle de "juger négativement" un instrument qui au contraire "sera très utile" même si "le contrôle humain sera probablement indispensable". Franchement, le fait que Stefano ressente le besoin de nous expliquer que "la plupart des gens qui sont confrontés à ChatGPT supposent que les réponses sont vraies car l'IA le dit et au contraire c'est exactement le contraire". On n'y avait pas pensé ! Mais cela, je le répète, vient du fait que nous n'existons pas et que Stefano ne peut donc pas voir quel travail a été fait ici au fil du temps.

Maintenant, en relisant ce que j'ai écrit dans le temps dont je dispose, je ne trouve nulle part le concept selon lequel l'outil "sera inutile". Au lieu de cela, je trouve une question que Stefano ne semble pas disposé à se poser : à qui cela va-t-il être utile ?

La réponse à cette question nous paraît évidente sur le plan de la méthode et du fond : le rapport de force compte, et donc un tel outil sera utile à ceux qui contrôlent le flux de données qui l'alimentent et à ceux qui gèrent l'algorithme. À l'heure actuelle, comme l'a amplement démontré le post " Désinformer sur la désinformation " et notre expérience au sein de la Love Commission, du point de vue du discours politique, ces outils sont fortement biaisés à notre détriment, mais, comme je l'ai souligné, ce n'est pas en soi une mauvaise chose : cela servira à envoyer vers leur destinée naturelle (nourrir les moutons) les nombreuses langues naturelles qui pour vivre parlent mal de nous !

Stefano ne sait probablement pas que depuis un certain temps maintenant, et de gauche , je mets en garde contre les tentatives évidentes de contrôler manuellement les flux d'informations par des institutions politiques supranationales à la responsabilité démocratique douteuse. Je vois (pas pour argumenter, mais pour clarifier) ​​un minimum de superficialité dans l'affirmation selon laquelle "les modèles d'IA peuvent avoir un parti pris politique inhérent si les données sur lesquelles ils sont formés contiennent des informations biaisées ou si les personnes qui créent le modèle ont leurs propres préjugés". Ce n'est pas "peut avoir", mais c'est "avoir". Ce n'est pas seulement parce que, dans la configuration actuelle des rapports de force, les "tribunaux de vérité" mis en place à différents niveaux (parlementaire, gouvernemental, supranational) sont dominés par nos adversaires politiques (sans doute Stefano ne se souvient-il pas de l'histoire du "Haut groupe de niveau [ sic ]   pour le contrôle des fausses nouvelles et de la désinformation en ligne", dont les experts comprenaient l'opposé du journalisme , celui qui n'avait pas publié de nouvelles vérifiées sur les conséquences de l'austérité en Grèce, et un professeur de ce repaire bien connu des souverainistes qu'est Bocconi) !

Si ce qui est "neutre et vérifié" dépend d'eux (ou de l'amour de la Commission), qu'est-ce qui peut mal tourner ? Tout, à commencer par le rapport final du Groupe de Haut Niveau (très haut, je dirais…) : un ensemble de platitudes et de préjugés démentis par une véritable recherche scientifique (un peu comme le rapport final de la Commission Amour, après tout) , comment vérifier en contactant ce dernier .

Mais je m'empresse d'ajouter que je poserais encore le problème (et d'ailleurs je peux le prouver, puisque je le pose depuis un certain temps) s'il était possible de désincruster le pays de piddinitas (anthropologique, avant même politique) , ce qui serait possible si vous existiez et persévériez : la solution d'un problème, en effet, n'est pas sa reproposition à l'envers, même si, faute de mieux, je me résigne maintenant chrétiennement à accepter comme progresser le fait que, ne pouvant changer la musique, au moins changer les acteurs !

Et nous arrivons ici à ce qui est peut-être mon principal point de désaccord avec Stefano.

Tout au long de son discours, une attitude d'extrême "optimisme de la raison" prévaut (qui devrait plutôt être pessimiste) sur l'utilisation de catégories telles que l'équité et l'impartialité. On sent une confiance préscolaire dans l'existence d'une vérité ontologique à laquelle la machine, si elle est guidée par l'homme, peut puiser par essais et erreurs . Sans empiéter sur le domaine des gains hypothétiques de (soi)conscience par la machine, que nous laissons pour l'instant, mais peut-être pas pour longtemps, aux auteurs de science-fiction, je voudrais faire remarquer à Stefano que tout son discours, qui est se veut profond, est dangereusement dépourvu de questions.

Une information neutre selon qui ?

Vérifié par qui ?

Foire pour qui ?

Impartial selon qui ?

C'est là que se terminent les compétences STEM et que commence le lycée classique, pour ceux qui ont eu la chance de pouvoir le faire quand il existait (il n'existe plus) !

Une utilisation absolue de concepts similaires était acceptable à l'époque de l'absolutisme. En démocratie, réelle ou imaginaire, cela semble un peu naïf . Malheureusement (je sais que beaucoup sont désolés) chacun a le droit à sa vérité, à son opinion, et de décider quelle vérité est plus vérité qu'une autre ne compte. Et c'est là que je vois le vrai danger de ces belles machines (la courte : la longue c'est qu'elles prennent le contrôle, mais on aura le temps d'y réfléchir) : le fait que des machines similaires, pas de vrais utilisateurs sociaux ( qui, comme le dit la science et comme nous l'avons vu en parlant de désinformation sur la désinformation , ils ne le font pas), s'avèrent être des instruments puissants et subtils d'amplification des messages politiques au sens le plus large, évidemment recouverts d'un manteau d'"impartialité" aseptique (pour ceux qui y croient).

Alors, remettons les aiguilles du calendrier : au 21e siècle est-ce plus superficiel de croire que la vérité existe, ou de s'inquiéter qu'une machine puisse être utilisée par certains pour imposer leur vérité ?

Si vous existiez, je vous demanderais votre avis…

(… je vous rappelle que les sujets liés aux a/symétries seront abordés dans trois jours avec un public respectable …)


Cet article est une traduction automatique de la langue italienne d’un article écrit par Alberto Bagnai et publié sur le blog Goofynomics à l’URL https://goofynomics.blogspot.com/2023/02/verita-e-propaganda.html le Mon, 06 Feb 2023 12:17:00 +0000.