mstdn.social is one of the many independent Mastodon servers you can use to participate in the fediverse.
A general-purpose Mastodon server with a 500 character limit. All languages are welcome.

Administered by:

Server stats:

17K
active users

#linkrot

1 post1 participant0 posts today

Poynter: As websites disappear, link rot threatens journalism. One Stanford fellow is working on a fix. “[Brandon] Tauszik discovered one of his projects, Syria Street, had disappeared due to link rot — the gradual decay of URLs and websites as they become broken, inaccessible or deleted over time. As a journalism fellow with the The Starling Lab for Data Integrity at Stanford, Tauszik has […]

https://rbfirehose.com/2025/03/08/poynter-as-websites-disappear-link-rot-threatens-journalism-one-stanford-fellow-is-working-on-a-fix/

Continued thread

Fantástico. Muy simple y muy completo.
Le fui cargando grupos de links según las tags con los que los quería agrupar, y los fue agregando a la cola.

A medida que los va procesando, intenta guardarlos de estas maneras:

- Single file HTML
- PDF
- Screenshot
- DOM
- wget
- warc
- Readability
- Mercury
- Media (extrae videos y otros archivos multimedia)

Recién empiezo a usarlo, pero realmente estoy muy impresionado.

Continued thread

Cuenta con varias formas de correrlo, y también con extensiones para el navegador. Usa herramientas como yt-dl para descargar los videos que pudiera haber empotrados, y otras cosas más, es muy completo.

Lo estoy levantando en mi propia máquina. Había pensado correrlo en mi servidor hogareño, pero la verdad que me resulta más fácil levantarlo y bajarlo on demand cuando lo necesito, y sincronizar la carpeta de datos con Syncthing a modo de respaldo.

(sigue)

Continued thread

Estoy a punto de probar ArchiveBox, un proyecto que ya conocía pero que no había probado, y que viéndolo bien, parece ser algo completo pero minimalista, pensado para perdurar, justo lo que buscaba.

Adicionalmente, es un proyecto que en el ambiente está muy bien considerado, y cuenta con una muy buena cantidad de colaboradorxs, así que eso también me da tranquilidad.

archivebox.io/

(sigue)

ArchiveBoxArchiveBox🗃 Open source self-hosted web archiving. Takes URLs/browser history/bookmarks/Pocket/Pinboard/etc., saves HTML, JS, PDFs, media, and more…
Continued thread

Pero eso no es todo, un par de actualizaciones después, en vez de arreglarse, me encuentro con estas "features"

Claramente el foco lo tienen puesto en otra parte. Todo bien, a lo mejor es una funcionalidad útil si uno se la pasa archivando media web todos los días, supongo, pero no es lo que yo necesito.

(sigue)

Desde un principio tuve mis reservas con Linkwarden, me parecía una solución demasiado compleja. Buscaba algo pensado para durar decadas, que no necesite actualizaciones constantes, algo más conservador y menos preocupado por tener linda estética y animaciones cuando cargan las cosas.

Y efectivamente, a los pocos meses de usarlo salió una actualización que no me hizo perder los links que tenía guardados, pero los dejó inaccesibles desde la UI.

(sigue)

Tengo una preocupación permanente por el "link rot", el contenido en Internet se va olvidando, corrompiendo, perdiendo, y una vez que uno vivió lo suficiente como para verlo ocurrir muchas veces, se vuelve más tangible.

Estuve usando una solución de archivado llamada Linkwarden, que tiene una interfaz web para poner las URLs a respaldar, y automáticamente guarda copias locales en HTML, PDF, captura de pantalla y también envía a archive.org

(sigue)

I've been browsing #webcomics again recently.

They usually include author's commentary, links to inspirations and collaborators, even Wikipedia pictures.

It's astonishing how many links from 2002-2008 have rotten. Even a Wikiedia pic of a Japanese emperor ("Not PD picture").

Sites which are still up are often stripped down to the basics, the forum and community gone.

I'm beginning to think: if you care about the content, don't just link to it. Copy and host it.

I have an open (educational) resource around the @cdk and one GitHub action checks the links. Since I cite literature where that makes sense, a good number of HTTP links are to scientific literature.

Those DOI links fail with the error in the screenshot. Link rot is a thing, but when (expensive) publishers disallow me to check, they signal they don't care about link rot.

A new blog post for 2025. Very brief. There was a rotten link on wikipedia on port knocking. I re-hosted the file because it was very hard to find. The update to #wikipedia got flagged by a filter as potential self promotion. I'm not sure it'll stick or not. I'm not sure what the rules even are these days.

#linkrot

poleguy.com/blog/port-knocking

poleguy.comPort KnockingPort Knocking This was link rotted on wikipedia. This was hidden behind a 'paywall'. Implementing a Port Knocking System In C

Link seals provide a quick soft-check utility for link health on your web spaces.

It's inspired by a blog post from Terence Eden about managing link rot on a website.

It proposes a very simple concept of a seal key, seal function and seal checker.

Read more on

mistystep.org/blog/testable-li

mistystep.orgLink seals - a testable links concept proposalI was reading How bad is link rot on my blog? on Terence Eden's blog. It’s an article where he shares his experience tending to outgoing links in his blog....