322 private links
From the main developer (or admin) of SourceHut: it's hard to keep up with the crawlers that act more like DDoS
Une cliente s'est fait arnaquer :/
The problem with GenAI in Wikipedia from a workshop:
"The problem is, low-quality content used looked like low-quality content, but now, it looks like high-quality content. The problem is more damaging in smaller editions, since there are fewer editors to catch things,
Sur le principe:
Si tu n’as pas pris le temps d’écrire ce texte, je ne vois pas pourquoi je devrais prendre le temps de le lire.
Poslovitch y décrit son utilisation des outils d'IA, et des raisons qui le pousse à ne pas les utiliser.
What cost AI per token in electricity and water?
Quelques exemples:
- SituationHub de GANNET montre comment l'intelligence artificielle peut aider à analyser et comprendre les crises en temps réel.
- Pluralisme scanne et surveille plus de 300 personnalités politiques en temps réel
- DiversiFair propose de former des experts capables de détecter et prévenir les discriminations cachées des systèmes d'IA
- la Fondation Hirondelle utilise aussi l’IA pour lutter contre les discours de haine à l’est du pays. L'IA surveille les radios communautaires locales et repère les discours violents.
- CervicAId utilise l'IA pour aider à détecter précocement le cancer du col de l’utérus, dans des zones géographiques mal desservies au niveau médical.
- CommonVoice de Mozilla propose 30 000 heures d'enregistrements de voix dans plus de 140 langues. C'est la plus grande base de données vocales participative au monde.
- Dalil est un outil d'analyse des médias détectant la propagation de fausses informations, l'émergence de sujets sensibles
- Meta et le World Resources Insitute cartographie la canopée mondiale au mètre près.
- NEOMIA, développé en Côte d’Ivoire, qui utilise l’IA pour analyser les images satellites et lutter contre la pêche illégale tout en surveillant l’impact du changement climatique sur les côtes
- GAIA, un projet qui veut démocratiser l’IA dans l’agriculture en proposant des outils open source. L’idée de GAIA c’est de créer une sorte de kit prêt à l’emploi avec des modèles d’IA spécialisés dans l’agriculture, accessibles à tous gratuitement.
- Prism Eval développe des outils pour tester la sécurité des modèles d'IA, par exemple le Behavior Elicitation Tool (BET)
My dream was to be a web developer who creates simple, elegant, and fast products, but I’m starting to lose hope. First of all, I can’t keep up with the endless stream of new technologies. Secondly, simple and fast products are not in high demand, making it an already niche area.
L'IA résout aucun besoin clair, les coûts dont invisibilisés et les risques ou investissements sont répercutés sur les prix des services.
Quels sont les gains pour les utilisateurs ?
Try writing a tax code in chat messages. You can’t. [...] That’s why we use documents
You program by writing documents instead of chatting.
Un outil listant les sites générés par IA, afin de passer outre les fake news.
L'extension alert alors si la navigateur est sur un de ces sites.
Pour Firefox https://addons.mozilla.org/fr/firefox/addon/alerte-sur-les-sites-genai/
[edit]
Suite de cette extension en août 2025: https://next.ink/195816/alerte-sur-les-sites-genai-notre-extension-signale-plus-de-6-000-sites-et-passe-en-v2-3/
De cette situation, une extension pour navigateur est dévelopée. Source https://next.ink/164873/outils-next-une-extension-chrome-et-firefox-pour-etre-alerte-des-sites-genai/ (et le permalien sur Shaarli)
A catalog to sabotage AI
AI is an ideological project to shift authority and autonomy away from individuals, towards centralized structures of power. Projects that claim to “democratize” AI routinely conflate “democratization” with “commodification”.
Ce n’est pas libre, puisqu’on ne contrôle pas du tout la façon dont ce logiciel a été entraîné et qu’il est matériellement impossible (sauf à avoir les capacités de stockage et de calcul d’OpenAI) à reproduire soi-même.
The AI prioritize safety above all.
Humans tend to make mistakes at the edges of our knowledge, our mistakes tend to clump around the same things, we make more of them when bored or tired, and so on. We have as a result developed controls and systems of checks and balances to help reduce the frequency and limit the harm of our mistakes.
The mistakes of AI models (particularly Large Language Models) happen seemingly randomly and aren’t limited to particular topics or areas of knowledge. Models may unpredictably appear to lack common sense.