101010.pl is one of the many independent Mastodon servers you can use to participate in the fediverse.
101010.pl czyli najstarszy polski serwer Mastodon. Posiadamy wpisy do 2048 znaków.

Server stats:

504
active users

#LLMs

47 posts28 participants0 posts today

**Generalization bias in large language model summarization of scientific research**

“_Our results indicate a strong bias in many widely used LLMs towards overgeneralizing scientific conclusions, posing a significant risk of large-scale misinterpretations of research findings._”

Peters Uwe and Chin-Yee Benjamin. 2025 Generalization bias in large language model summarization of scientific research. R. Soc. Open Sci.12: 241776. doi.org/10.1098/rsos.241776.

#OpenAccess #OA #Research #Article #AI #ArtificialIntelligence #LLMS #Technology #Science #Bias @ai @science

AI companies fail to recognize that they target creative jobs because those don’t impact life and limb in failure modes. Self-driving cars mass murder when they fail, whereas image generation aesthetically disappoints. This is the crux of why they think creative jobs are targetable/disposable: they see the failures be tolerated. More on this, I wrote 2 years ago today:

bit.ly/BeingHumanInAgeOfAI

A robot’s human-like face looks back at us amidst a chaotic background.
ILLUMINATION · Being Human in the Age of AI - ILLUMINATION - MediumBy David August
#ai#llm#llms

What will LLM owners do when they've destroyed or hollowed out all human sources of knowledge and places of education/research?

What happens when they have no more human blood to suck on to prevent model collapse?

More importantly, what will society do if it builds its structures around stealing knowledge from people until the people give up producing knowledge?

(And this is ignoring LLMs' impact on our climate due to their vast energy use.)

"Still, the hypemeisters are unable to stop dropping thinly veiled hints about artificial general intelligence - 'thinking machines' - from time to time. Any day now! And that last LLM that couldn't really do what we said it could? That wasn't real AI. This time though, it is. Honestly. Promise. Sort of. Thus, for every new LLM version, user disappointment with the AI hype seems to increase."

datagubbe.se/winter

Je lis dans la présentation d'un profil #Mastodon que j'anonymise pour ne pas le désigner comme cible de harcèlement et/ou de bashing diffamatoire, et ne pas moi-même le diffamer : "Utilisation d’IA pour quoi que ce soit, pas d’abonnement, pas de partage".

Ce genre de déclarations déréelles militantes sectaires technophobes m'énerve profondément et je vais donc appliquer une logique kantienne à ce profil en lui appliquant ses propres principes affichés et en ne le suivant pas.

Pourquoi ? Parce que ne pas utiliser l'IA au quotidien relève pratiquement de l'impossible à moins de vivre en autarcie sur une île déserte, l'IA étant présente pratiquement partout, y compris sur Mastodon jusque dans la mise au point des médicaments que vous consommez et les appareils médicaux quand vous vous rendez aux urgences médicales. L'utilisateur de ce profil utilisant donc le plus probablement lui-même l'IA, même sans en avoir conscience ni le vouloir ‒ à moins qu'il soit un ermite vivant en marge de l'humanité, je ne vais donc pas suivre son profil. De plus, au-devant de la multiplication exponentielle massive des contenus générés par IA, il me semble tout à la fois logique et légitime de s'intéresser à la question. Or toute personne s'intéressant sérieusement au sujet de l'IA, sera amenée, au-delà d'un certain niveau d'expertise, à devoir l'utiliser concrètement et ouvertement ne serait-ce que pour effectuer des tests et des évaluations, alors que la déclaration ouvertement excluante que je conteste et dénonce précise que l'exclusion s'applique à toute personne utilisant l'IA **pour quoi que ce soit**, ce qui ne laisse guère de marges d'interprétation quant aux intentions de son auteur. Surtout dans des contextes où ce genre de déclarations, de comportements et d'attitudes technophobes sont très fréquemment exprimés et mis en actes pour être compris de façon littérale à prendre au pied de la lettre, que ce soit sur Mastodon ou d'autres plateformes alternatives ou dans des milieux militants de gauche (depuis les tendances parlementaires dites à tort ou à raison, ce sur quoi je ne me prononcerai pas car ce n'est pas le sujet du post, "modérées" jusqu'à des tendances extraparlementaires plus ou moins "radicales"), où les prises de positions technocritiques (depuis les mieux informées avec une véritable expertise jusqu'aux plus douteuses relevant d'un militantisme moral sans véritable expertise) et ouvertement technophobes radicales (parfois, mais pas toujours, teintées de pensée magique et d'irrationalisme) sont très présentes.

Avoir l'outrecuidance, de facto et même de bonne foi et non intentionnellement hypocrite, mensongère, et sectaire de prétendre interdire de s'intéresser au sujet de l'IA et d'exclure les personnes s'intéressant à ce sujet ou utilisant l'IA est un mensonge technophobe sectaire qui reviendrait à prétendre interdire de s'intéresser à la mécanique dans un monde où les véhicules mécaniques sont absolument partout et omniprésents.

#IA#AI#LLM

What could go wrong?…

𝙏𝙚𝙘𝙝 𝙢𝙤𝙜𝙪𝙡 𝙋𝙖𝙡𝙢𝙚𝙧 𝙇𝙪𝙘𝙠𝙚𝙮 𝙘𝙧𝙚𝙖𝙩𝙞𝙣𝙜 𝙖𝙧𝙨𝙚𝙣𝙖𝙡 𝙤𝙛 𝘼𝙄-𝙥𝙤𝙬𝙚𝙧𝙚𝙙 𝙖𝙪𝙩𝙤𝙣𝙤𝙢𝙤𝙪𝙨 𝙬𝙚𝙖𝙥𝙤𝙣𝙨

youtube.com/watch?v=bWEXnph1El

L'IA Perplexity .ai ‒ qui interroge elle-même d'autres IA comme ChatGPT, Claude, Gemini, et Grok ‒ a des biais anti-israéliens et antisémites notables, tout en prétendant s'inscrire dans une lutte contre toutes les formes de haine. Sa stratégie est plus subtile mais aboutit à des analyses et des évaluations biaisées et mensongères qui vont jusqu'à qualifier de conspirationnisme l'évocation de faits historiques avérés dans des textes qui lui sont soumis pour analyse et évaluation. Dès lors que le sujet touche à Israël, l'lA multiplie les paralogismes (paralogisme de l'homme de paille, paralogisme du hareng rouge, etc.), conteste des faits historiquement établis, contourne les questions dérangeantes, et j'en passe. Alors que sur d'autres sujets, il est possible de la recadrer, pour tout ce qui touche à Israël, elle se montre obstinée, revient à la charge par des détours subtils, etc.

People complain about #LLMs for "hallucinating." In this context, a hallucination is something that looks like a fact but is actually completely fictitious. (It's a terrible name.)

But here's the thing: every day I talk to humans. The vast majority of humans that I interact with say things that look like facts but are actually completely fictitious.

FWIW, I get many more daily hallucinations from *people* than I do machines.

¯⁠\⁠_⁠(⁠ツ⁠)⁠_⁠/⁠¯

Selon les détecteurs de textes générés par #IA #AI #LLM #LLMs (comme par exemple Copyleaks, Scribbr, ZeroGPT, Decopy AI, etc.), je serais un #cyborg et certains de mes textes personnels travaillés soigneusement que les détecteurs identifient à tort comme totalement ou dans la plus grande partie générés par une IA passent paradoxalement pour écrits à 100% ou dans la plus grande partie par un humain si j'utilise une IA pour en retoucher la forme et le style sans modifier le sens et le fond et en donnant des séries d'instructions à l'IA pour qu'elle imite les styles d'écriture des humains.

L'absurdité surréaliste de cette situation est totale :

Textes écrits par un humain : Détectés parfois, ou plus ou moins souvent, comme générés à 100% ou en grande partie par une IA.

Textes générés par une IA : Peuvent passer parfois, ou plus ou moins souvent, comme totalement ou dans la plus grande partie, écrits par un humain.

J'ai une réputation à entretenir, et je ne voudrais surtout pas que les gens croient et racontent partout que je fais écrire mes textes par une IA, or comme mes textes personnels passent à tort comme parfois ou plus ou moins souvent, lors des tests de détection, comme générés totalement ou dans la plus grande partie par une IA, ce qui est une pratique inadmissible, alors que je suis un humain, je suis au regret de vous annoncer que je ferai dorénavant générer tous mes textes par une IA pour qu'ils soient identifiés par les tests de détection comme ayant été écrits par un humain. 🤷‍♂️

Post-scriptum : Pour les personnes qui ne sont pas équipées d'un processeur accélérateur du sens de l'humour, mes propos étaient en partie teintés d'ironie et de dérision humoristiques au devant de l'absurdité de la situation et je ne vais bien entendu pas faire écrire tous mes textes par une IA pour qu'ils passent pour écrits par un humain, même si cela est techniquement parfaitement réalisable et c'est à s'y méprendre, des contenus générés par IA avec des séries d'instructions adéquates peuvent apparaître comme aussi vrais ou plus vrais que nature.

Russie - URSS : « Comment Staline préparait la Troisième Guerre mondiale »

(Mon style d'écriture personnel de la précédente version de ce post que je m'étais bien emmerdé à écrire ayant été prétendument identifié comme du contenu généré par #IA #AI #LLM #LLMs, certains outils allant jusqu'à annoncer un prétendu taux d'écriture par IA de 100%, j'ai été obligé de la supprimer et de travailler avec une IA à la production de la totalité ce présent post, sauf le texte à l'intérieur de cette parenthèse, de façon à ce que le post soit détecté comme ayant été écrit à 100% par un humain par les outils de détection de textes produits par IA ; je ne suis pas une IA, bordel fait chier !)

desk-russie.eu/2025/05/13/comm

En gros, l’article de Yuri Felshtinsky revient sur une idée assez troublante : Staline, après la Seconde Guerre mondiale, n’aurait pas simplement consolidé son pouvoir, mais il aurait carrément envisagé de provoquer une nouvelle guerre mondiale. C’est l’historien Alexander Gogun qui avance cette thèse, et Felshtinsky la détaille en s’appuyant sur plusieurs documents d’époque.

1. D’abord, il semble que Staline, grisé par la victoire contre Hitler, voyait l’URSS comme la nouvelle superpuissance et pensait que la confrontation avec l’Occident était quasiment inévitable.

2. Du coup, il a mis le paquet sur l’armement : augmentation du budget militaire, développement accéléré de la bombe atomique, et tout ce qui va avec.

3. Sur le plan international, il n’a pas hésité à imposer des régimes pro-soviétiques dans les pays de l’Est et à encourager, parfois de loin, des mouvements révolutionnaires ailleurs.

4. L’article insiste aussi sur le fait que, dans la tête de Staline, les États-Unis et le Royaume-Uni étaient perçus comme des ennemis à affronter tôt ou tard.

5. Finalement, la mort de Staline en 1953 a mis un coup d’arrêt à ses projets les plus radicaux, mais son influence a continué à peser sur la politique soviétique, et même aujourd’hui, certains voient des parallèles avec la Russie de Poutine.

troisième guerre mondiale
desk russie · Comment Staline préparait la Troisième Guerre mondiale • desk russieSelon l'historien Alexander Gogun, ce n'est que la mort de Staline qui a empêché un conflit nucléaire.

Jason Koebler (404 Media) "We’re not burying our heads in the sand. We use AI tools every day to understand how they work, their limitations, and, most importantly, how they are being leveraged to become the dominant type of content on the internet. Because we do this, we have some of the leading coverage of generative AI on the internet. AI isn’t going away, and I could imagine using it in the future if it becomes more trustworthy and perhaps if the companies pushing it find more ethical business models. I have experimented with using AI to write complex Freedom of Information Act requests and FOIA appeals and to parse large documents, though I haven’t been impressed with the results. I passively use forms of AI to help transcribe interviews, get the gist of YouTube videos in foreign languages, and edit short-form videos and podcasts. Language translation and transcription feel like true game changers, while other AI tools feel like spam machines. I’ll use AI to help find new information, but not to write my words."

cjr.org/feature-2/how-were-usi

Columbia Journalism ReviewHow We’re Using AIThe rapid development of AI is already changing how journalists operate. Reporters, editors, executives, and others across the news industry share their advice on how to engage—and where to draw the line.