293 private links
Own your own virtual pet. It can references to the own website with an iframe.
The HTML Hobbyist Mission
- Show how quick, easy, and affordable it has become to get a website up and running.
- Show how enjoyable building a simple hand-coded artisanal HTML website can be.
- Provide instructions and guidance on how others could build and upload a similar hobbyist website to share with the community.
In the similar way, https://web.archive.org/web/20130707062738/https://neocities.org/about
#todo add the badge to lyokolux.space
Likes, upvotes, replies, friending. What if it’s all just linking? In fact, what if linking is actually more meaningful!
They can be dated.
Now let’s turn to categories. A small directory doesn’t need a full-blown hierachy—the hierarchy shouldn’t dwarf the collection.
A structure for a flat directory (in one file or one file per entry) can be:
---
Link Title
url://something/something
*topic/subtopic format time-depth
Markdown-formatted *description* goes here.
- topic/subtopic is a two-level ad-hoc categorization similar to a tag. A blog may cover multiple categories, but I’m not sure if I’ll tackle that. I’m actually thinking this answers the question, “Why do I visit this site? What is it giving me?” So a category might be supernatural/ghosts if I go there to get my fix of ghosts; or, it could be writing/essays for a blog I visit to get a variety of longform. An asterisk would indicate that the blog is a current feature among this topic (and this designation will change periodically.)
- format could be: ‘blog’, ‘podcast’, ‘homepage’, a single ‘pdf’ or ‘image’, etc.
- time-depth indicates the length one can expect to spend at this link. It could be an image that only requires a single second. It could be a decade worth of blog entries that is practically limitless.
The other items: author, url and description—these are simply metadata that would be collected.
The directory would then allow discovery by any of these angles. You could go down by topic or you could view by ‘time depth’.
So because a website HTML/CSS is protected computer program: an ad blocker intervenes in the in-memory execution structures of it; it constitutes an unlawful reproduction and modification.
This was first reject; but a new ruling sent the case back.
There are many reasons, in addition to ad blocking, that users might want their browser or a browser extension to alter a webpage.
As per BGH’s ruling, Springer’s argument needs to be re-examined to determine if DOM, CSS, and bytecode count as a protected computer program.
Mozilla noted that the new proceedings could take up to a couple of years to reach a final conclusion. As the core issue is not settled, there is a future risk of extension developers to be held liable for financial losses.
A directory of the web
Sauf si certaines options sont activés pour certains lecteurs d'écrans.
A way to integrate a search in a static project.
Links are awesome! Here another post describing how useful they are
Il y a plusieurs moyens de générer des URLs. L'auteur recherche la meilleure.
Avoir des URLs pratique à saisir: courtes avec 4 caractères. 4 chiffres ou lettres donnent déjà 1 679 616 URLs possibles. C'est plus que suffisant pour un blog. Il est possible d'étendre cela à 5 au besoin pour 60 466 176 de possibilités.
Avoir des URLs non prédictibles nécessitent au moins 64 bits d'espace d'adresse, soit 11 caractères. C'est moins pratique à saisir.
Avoir des URLs faciles à saisir est aussi idéal. En optimisant la lisibilité (supprimer les 0, O, 1, I qui peuvent se confondre), on arrive à une base 57 au lieu de 64.
Avoir des URLs significatives implique des noms, donc que ce soit plus long. Est-ce vraiment nécessaire ?
Mis bout à bout, cela donne des URLs comme https://survol.fr/n/2qQVKC6AumxR
Si les liens n'ont pas à être confidentiel, alors 4 à 5 caractères pour un identifiant est idéal. Sinon une suite de mots (3 à 5) est aussi bien lisible. Enfin, pour avoir un compromis entre non prédictibilités et néanmoins lisible, 2qQVKC6AumxR
est correct, mais difficilement partageable oralement.
Il y a donc 3 approches possibles.
Deux autres idées sont suggérées en commentaire:
En étant un peu tordu, on peut concilier identifiants courts et contenu non découvrable par bruteforce en renvoyant toujours un code HTTP 200 et affichant un contenu généré aléatoirement sur les URI non-existants.
Créer des mots inexistants qui sont pourtant justes: https://lehollandaisvolant.net/tout/tools/fake-words/
The project can be useful to provide search results on a static site.
Google résume les sites webs au lieu de rediriger les utilisateurs.
Les utilisateurs ne naviguent donc plus sur ces sites webs produisant les informations.
Les sites web accusent une baisse de traffic.
Ces sites web meurent.
S'il n'y a plus ces sites, Google ne peux plus résumer leur contenu.
Sauf ceux qui sont indépendant du traffic, ou bien un petit traffic suffit.
Le New York Times a perdu 36% de son traffic. Google AI Overview a fait chuter de 30% la navigation des utilisateurs.
Ces sites réagissent et ils sont 67% à bloquer les crawlers d'IA.
L’Answer Engine Optimization (AEO) remplace progressivement le SEO traditionnel et les éditeurs structurent leur contenu pour être référencés dans les boîtes IA, en espérant récupérer quelques miettes de trafic via les liens affichés dans les résumés.
(via le commentaire du Hollandais volant https://lehollandaisvolant.net/?id=20250617181231)
@view-transition {
navigation: auto;
}
::view-transition-old(root),
::view-transition-new(root) {
animation: fade 0.3s ease both;
}
@keyframes fade {
from { opacity: 0; }
to { opacity: 1; }
}
To animate a thumbnail between two pages, the <img src="">
tag can be set to view-transition-name: product-image;
This is a microcosm of a much bigger theme: browsers are evolving to reward simplicity and resilience. They’re building for the kind of web we should have been embracing all along. And SPAs are increasingly the odd ones out.
SPAs were a clever solution to a temporary limitation. But that limitation no longer exists.
and I agree, SPAs are overkill for 95%-99% of the websites.
Les raccourcisseurs d'URLs sont une fausse bonne idée dans la plupart des cas:
- Les URLs raccourcies ne sont pas toujours générées aléatoirement
- Le phishing rendu possible
- La dépendance au service, qui peut fermer, comme ici avec goo.gl
Convert the resource of an URL to anything
The ICANN has a wiki describing each TLD. Each one get its own page.