350 private links
"Vibe coding" is a trendy expression for "Automated coding".
Automated programming especially allows me to quickly build the tools I need so fast that every blacksmith that ever existed on this earth would envy me deeply.
With the automated coding, "we can finally get rid of all that middle work. That adapting layer of garbage we blindly accepted during these years. A huge amount of frameworks and libraries and tooling that has completely polluted software engineering, especially in web, mobile and desktop development."
The frameworks claim to solve three problems: simplification, automation and labour cost. "You unlock a feature that has nothing to do with engineering: you no longer need to hire a software engineer. You hire a React Developer.
Software engineering is back in a sense again: We have the chance again to get rid of useless complexity and keep working on the true and welcome complexity of our ideas, our features, our products. The complexity that matters. The complexity that is actually yours.
Automation and boilerplating have never been so cheap to overcome. I’ve been basically never writing twice the same line of code. I’m instantly building small tools I need, purpose built, exactly shaped around the problem at hand. I don’t need any fancy monorepo manager. A simple Makefile covers 100% of my needs for 99% of my use cases.
Bash, makefiles, ...
Think about it
compared to 25M+ with cloud services.
So in order to set up one, the data center needs power, cooling, servers and software. The post goes in-depth about it. The list of softwares available is a great inspiration.
All of our storage arrays use mkv. The main array is 3PB of non-redundant storage hosting our driving data we train on. We can read from this array at ~1TB/s, which means we can train directly on the raw data without caching. Redundancy is not needed since no specific data is critical.
Following Building a browser API in one shot, the Codex CLI agent built a minimal web browsers with 20 000 lines of Rust that successfully renders HTML, CSS with no Rust create dependencies at all. It uses OSes for it.
See the flexbox implementation: https://github.com/embedding-shapes/one-agent-one-browser/blob/0.1.0/src/layout/flex.rs
The project: https://github.com/embedding-shapes/one-agent-one-browser
and the original post of the author https://emsh.cat/one-human-one-agent-one-browser/
IndexedDB built with 92% successful tests
I enjoyed the experience and don’t regret it, but experiments like this cheapen the efforts I’ve made over the years. It reduces the value of things. I think this is partly why so many of us have a knee-jerk reaction to reject these tools: if they work, then they’re frankly insulting.
Simon Willison predicts a webbrowser will be built by AI until 2029.
- Pourquoi nos politiques utilisent le réseau social X? C'est totalement contraire aux valeurs qu'ils défendent ici, et personne n'en parle.
- Cette interdiction porte en elle l’ensemble des possibilités de contournement qui seront (et sont déjà) à l’oeuvre pour s’en défaire et la rendre au mieux inopérante et au pire totalement contre-productive
- Les plateformes ne font rien contre leurs contenus nuisibles car c'est contraire à leur modèle d'affaire
Ces plateformes mentent, tout comme l'industrie du tabac sur la santé, tout comme l'industrie du pétrole sur le dérèglement climatique.
En cas d'interdiction, la faute sera automatiquement redirigé vers les parents ou vers l'État.
La vérification de l'âge est pour le moment impossible à effectuer sans atteinte aux libertés. OpenAI annonce donc un outil de prédiction de l'âge: qu'est-ce qui peut mal se passer?
Parce qu'ils ont autorisés les chatbots sexualisés.
Les plateformes ne renonceront pas , car c'est le prochain marché de consommateurs, et le dernier levier de croissance. L'auteur l'affirmait il y a 11 ans: https://affordance.framasoft.org/2014/09/voici-venu-le-temps-du-web-des-enfants/
Prédictions:
- L'assemblée nationale a adopté le projet de loi d'interdiction des réseaux sociaux.
- Le projet sera retoqué par le conseil d'État
- la commission européenne ne va rien montrer quant à sa volonté d'appliquer une telle réglementation
-le gouvernement va sortir une application, dont France Identité sera le tiers de confiance. Que se passera-t-il- lorsqu'un certain parti arrivera au pouvoir? En cas de fuite de données qui arrive déjà régulièrement ?
Des ressources:
- l'[étude de l'ANSES] recommande d'imposer des régulations suffisamment fortes pour désermer les paramétrages toxiques des plateformes
- 3 articles d'Huber Guillaud: « un internet de moins en moins sûr », « Impunité des géants et criminalisation des usagers » , « Panique morale en roue libre »
If you write about the messy reality behind "free" internet services: we're seeing #OpenStreetMap hammered by scrapers hiding behind residential proxy/embedded-SDK networks. We're a volunteer-run service and the costs are real. We'd love to talk to a journalist about what we're seeing + how we're responding. #AI #Bots #Abuse
TL;DR; le devoir surveillé commençait à 14 H, sans limite de temps mais toute sortie de la salle était définitive, les étudiants se sont retrouvés à étudier le cours puisqu'il n'avait pas le temps pour tricher et finir le devoir surveillé avant 20h.
Je suis un boomer (74 ans) et j'ai une anecdote dont l'analogie avec les thèses évoquées dans cette vidéo est criante :
Au début des années 70, j'étais en 3ème année d'école d'ingénieur. Le prof de RDM (résistance des matériaux) avait décidé que les devoirs sur table (appelés "devoirs surveillés" DS) seraient sans limite de temps et avec avec toute la documentation que l'on voulait. Justification : "Dans la vie active, vous aurez accès à toute la documentation, et si nécessaire, vous aurez toutes vos nuits pour travailler vos projets".
Nous étions donc persuadés qu'ayant toute la doc, nous n'avions plus rien à apprendre, tout au plus à savoir nous servir d'une règle à calculs (Hé oui : même les calculettes quatre opérations n'existaient pas encore !).
Bref, le DS commençait à 14 H, sans limite de temps mais toute sortie de la salle était définitive. En simplifiant :
Au premier trimestre, l'expérience montra :
- que nous venions tous avec des tonnes de doc pour être parés à toute éventualité
- que personne ne restait au-là de 19H55 (5 minutes avant l'heure de fermeture du resto de l'école. Coïncidence ? 😄)
- que les résultats étaient globalement catastrophiques
Au deuxième trimestre,- la plupart des élèves venaient avec une doc réduite, en ayant potassé les cours avant
- une majorité sortaient au bout de cinq heures
- les résultats par rapport au premier trimestre s'étaient largement amélioré mais restaient médiocres
Au troisième trimestre- la doc apportée était souvent réduite à des fiches de synthèse faites préalablement à partir des cours
- au bout de 4h30, pratiquement tout le monde avait rendu sa copie
- La moyenne de la promo était passée au-dessus de 10 (on notait sur 20, à l'époque)
La doc illimitée était le ChatGPT de l'époque.
Pour la petite histoire, j'ai eu un diplôme d'ingénieur en Génie Civil, et j'ai fait toute ma carrière dans l'informatique, en commençant comme développeur. Et aujourd'hui encore, à la retraite, je développe pour mon plaisir.
The "Open Web" works only because the affordances are here.
As AI allows to easily create and consume content, these affordances for the open web have changed. For those who want to sell ads next to their content or entice people to subscribe, the rise of AI feels like betrayal.
Furthermore, on a technical level serving content to anyone who asks for it on a global scale might be a commodity service now -- and so very inexpensive to do, in some cases -- but it’s not free, and the costs add up at scale.
It's about control. As hyperbole, some what pixel-perfect control over the information is presented, used and its conditions, whereas some open access advocates want all information to be usable for anything without conditions. Both would be bad for the Open Web
ChatGPT intègre dans ses sources Grokipedia
Nous assistons peut-être au début de la fin de la crédibilité des grands modèles de langage comme outils de recherche fiables. Si des acteurs comme OpenAI sont incapables d'empêcher leurs modèles de boire à des sources empoisonnées, la valeur de l'outil s'effondre.
The moral of both stories is that there is worth in what seem to be boring or painful experiences. Effort has intrinsic value.
Value isn't replaceable. AI is a great tool only if it's used correctly:
- treat generated code as ephemera rather than the finished product
- review every line, increasing our skillset at the same time
- solve new problems and build new instincts
As written in another post:
- Never let an LLM speak for you
- Never let an LLM think for you
The script is available at https://raw.githubusercontent.com/corbindavenport/just-the-browser/main/main.sh
L'alternative IA à ce que Signal est aux messageries.
A survey about Discord using AI
In 2023, the FTC ordered the company to pay $5.8 million over claims that employees and contractors had unrestricted access to customers’ videos for years.
Great
Why summarizing all emails if you can have them sorted efficiently? What's the advantage if you can already control which email you want to receive and which not?
Google argues that email has changed since 2004, as users are now bombarded with hundreds of emails every week, and volume keeps rising.
Who wants to be bombarded?