leftascenter

joined 1 year ago
[–] [email protected] 3 points 11 months ago

Reste a imprimer une capsule pour rentrer.

[–] [email protected] 1 points 11 months ago
[–] [email protected] 4 points 11 months ago

101: anyone can be an econ minister

102: getting away in Switzerland

[–] [email protected] 1 points 11 months ago (4 children)

Ces derniers jours on oscillait autour de 8 le matin

[–] [email protected] 1 points 11 months ago

Petit plaisir de matin que de lire ca

[–] [email protected] 14 points 11 months ago (1 children)

Ou alors arrêter les SUV. On parle de 15%, c'est justement la surconsommation d'un monte-trottoir.

[–] [email protected] 3 points 11 months ago (6 children)

J'ai froid ce matin. GronX.

[–] [email protected] 3 points 11 months ago

Même en laboratoire, 20 % représentent un effet important sur les croyances des gens", explique M. Zhang. "Il pourrait être plus faible dans le monde réel, mais même 10 % ou 5 % seraient encore très importants.

Les auteurs ont cherché à se prémunir contre la tendance des modèles d'IA à inventer des informations - connue sous le nom d'hallucination - en faisant appel à un vérificateur de faits professionnel pour évaluer l'exactitude de 128 affirmations faites par l'IA. Parmi celles-ci, 99,2 % se sont révélées vraies, tandis que 0,8 % ont été jugées trompeuses. Aucune affirmation n'a été jugée complètement fausse.

Selon David G. Rand, professeur au MIT Sloan qui a également travaillé sur le projet, ce degré élevé de précision s'explique par le fait que les théories du complot ont fait couler beaucoup d'encre sur l'internet, ce qui fait qu'elles sont très bien représentées dans les données d'entraînement du modèle. La nature adaptable de GPT-4 Turbo signifie qu'il pourrait facilement être connecté à différentes plateformes avec lesquelles les utilisateurs pourraient interagir à l'avenir, ajoute-t-il.

"On pourrait imaginer qu'il suffise d'aller sur des forums de conspiration et d'inviter les gens à faire leurs propres recherches en débattant avec le chatbot", explique-t-il. De même, les médias sociaux pourraient être connectés aux LLM pour publier des réponses correctives aux personnes partageant des théories conspirationnistes, ou nous pourrions acheter des annonces de recherche Google contre des termes de recherche liés à la conspiration tels que "État profond".

Selon Gordon Pennycook, professeur associé à l'université de Cornell qui a également participé au projet, cette étude a bouleversé les idées préconçues des auteurs sur la réceptivité des gens aux preuves solides qui démystifient non seulement les théories du complot, mais aussi d'autres croyances qui ne sont pas fondées sur des informations de bonne qualité.

"Les gens ont été remarquablement réceptifs aux preuves. Et c'est très important", ajoute-t-il. "Les preuves ont de l'importance

[–] [email protected] 3 points 11 months ago (1 children)

"Ils montrent qu'avec l'aide de grands modèles de langage, nous pouvons - je ne dirais pas résoudre le problème, mais nous pouvons au moins l'atténuer", déclare-t-il. "C'est un moyen d'améliorer la société.

Selon Thomas Costello, chercheur au MIT Sloan et auteur principal de l'étude, peu d'interventions ont prouvé qu'elles pouvaient faire changer d'avis les théoriciens de la conspiration. Ce qui rend la tâche si difficile, c'est que les gens ont tendance à s'accrocher à différentes parties d'une théorie. En d'autres termes, si la présentation de certains éléments factuels peut être efficace pour un croyant, rien ne garantit qu'elle le sera pour un autre.

C'est là que les modèles d'intelligence artificielle entrent en jeu. "Ils ont accès à une multitude d'informations sur divers sujets et ont été formés sur l'internet. De ce fait, ils ont la capacité d'adapter des contre-arguments factuels à des théories du complot particulières auxquelles les gens croient".

L'équipe a testé sa méthode en demandant à 2 190 travailleurs issus du crowdsourcing de participer à des conversations textuelles avec GPT-4 Turbo, le dernier grand modèle linguistique d'OpenAI.

Les participants ont été invités à donner des détails sur une théorie du complot qu'ils jugeaient crédible, à expliquer pourquoi ils la trouvaient convaincante et à fournir des preuves à l'appui de cette théorie. Ces réponses ont été utilisées pour adapter les réponses du chatbot, que les chercheurs avaient incité à être aussi persuasif que possible.

Après chaque conversation, les participants devaient répondre aux mêmes questions d'évaluation. Les chercheurs ont relancé tous les participants dix jours après l'expérience, puis deux mois plus tard, afin de déterminer si leur point de vue avait changé à la suite de la conversation avec le robot. Les participants ont indiqué qu'ils croyaient en moyenne 20 % moins à la théorie du complot qu'ils avaient choisie, ce qui suggère que la conversation avec le robot a fondamentalement changé l'esprit de certaines personnes.

[–] [email protected] 2 points 11 months ago

Donc, le ruissèlement néolibéral, mensonge ou religion?

[–] [email protected] 4 points 11 months ago

Impossible. J'ai toujours refuse de l'utiliser, trop de casseroles WhatsApp.

[–] [email protected] 2 points 11 months ago

Il avait exhorté les employés à ne pas « sacrifier » les progrès futurs en raison de « frustrations liées au passé ».

C'est a la fois vrai et tellement un mécanisme de cliquet contre les salaries ce genre de choses.

view more: ‹ prev next ›