Disfruta conmigo de Linux y del Open Source. Aquí encontrarás como sacarle el máximo partido a tu entorno de escritorio Linux, hasta como montar un servidor web, un WordPress, un proxy inverso, una base de datos o cualquier otro servicio que puedas imaginar. Y todo ello, lo puedes montar en una Raspberry Pi, en un VPS, en tu propio ordenador o en cualquier servidor. Vamos, cualquier cosa que quieras hacer con Linux, seguro, seguro, que la encontrarás aquí.

¿Es Python siempre la mejor opción para tus scripts de automatización? En este episodio, Lorenzo profundiza en una de las discusiones más recurrentes de la comunidad: la estabilidad de los scripts frente a la comodidad de los módulos de terceros. Acompaña a nuestro experto en Linux mientras desglosa los motivos que lo llevaron a abandonar soluciones basadas en Python para la gestión de metadatos de audio.Descubre ID3CLI, una herramienta potente y ligera escrita en Rust que soluciona los problemas de retrocompatibilidad y fallos en tiempo de ejecución. Aprenderás cómo automatizar el etiquetado de tus podcasts extrayendo datos directamente de archivos Markdown, eliminando la necesidad de introducir información manualmente en herramientas gráficas. Analizamos la importancia de tener binarios compilados que simplemente "funcionan", permitiéndote centrarte en crear contenido en lugar de arreglar herramientas rotas.Temas destacados del episodio: Bash vs Python: ¿Cuándo el "follón" de compilar merece la pena? Los peligros de depender de módulos de terceros que cambian sin previo aviso. De EasyTag a la automatización total en la terminal. Uso de Front Matter y RipGrep para un flujo de trabajo eficiente. Soporte de metadatos para Apple y carátulas en múltiples formatos. Capítulos,00:00:00 Introducción: El dilema de Bash vs Python00:00:48 El riesgo de las dependencias de terceros en Python00:01:35 La obsesión por la automatización de metadatos00:03:01 Flujo de trabajo: De EasyTag a la Terminal00:05:36 Extrayendo datos del Front Matter en Markdown00:07:24 Herramientas antiguas: ID3 y MiD3v2 (Mutagen)00:09:12 El colapso de los módulos y la necesidad de compilar00:10:13 Presentando ID3CLI: La solución definitiva en Rust00:11:53 Características técnicas y soporte de formatos (MP3, OGG, FLAC)00:13:48 Integración de ID3CLI en scripts de automatización00:15:23 Reflexión sobre la importancia de los metadatos00:16:42 Nuevo proyecto: El podcast "La Era de las Distros"00:17:47 Comunidad y cierre del episodioAdemás, Lorenzo nos habla sobre su nuevo podcast "La Era de las Distros", una mirada necesaria a las distribuciones Linux que marcaron un hito en la informática española como LinEx o Guadalex. ¡Disfruta del episodio y optimiza tu entorno Linux!Más información y enlaces en las notas del episodio

¿Tu contenedor está realmente funcionando o es solo un proceso zombie ocupando memoria? En el episodio 772 de Atareao con Linux, te revelo los secretos para gestionar la salud de tus contenedores como un experto.Soy Lorenzo y en esta entrega nos enfocamos en Podman y los Health Checks. Si en el episodio 688 hablamos de Docker, hoy damos el salto definitivo hacia la automatización profesional en Linux utilizando Quadlets y Systemd.Lo que vas a descubrir en este audio: Detección de Zombies: Aprende a identificar procesos que parecen activos pero no responden. Dependencias Reales: Cómo configurar tu stack de WordPress, MariaDB y Redis para que arranquen en el orden correcto y solo cuando sus predecesores estén sanos. Auto-reanimación: Configura políticas de reinicio que actúan automáticamente ante fallos de salud. Notificaciones Inteligentes: Recibe alertas en Telegram o en tu escritorio cuando tus servicios cambien de estado.Este episodio es una guía práctica para cualquier persona que quiera robustecer su infraestructura de contenedores, evitando los cierres inesperados y las dependencias rotas que suelen ocurrir con herramientas tradicionales como Docker Compose.Capítulos: 00:00:00 ¿Tu contenedor está vivo o es un ZOMBIE? 00:01:44 ¿Qué es realmente un Health Check? 00:02:22 4 Ventajas de usar Health Checks 00:03:20 Implementación en Podman y Docker 00:05:20 La potencia de los Quadlets 00:08:58 Dependencias inteligentes: WordPress+MariaDB+Redis 00:11:00 Notificaciones On Success 00:13:55 Gestión de errores On Failure 00:18:21 Próximos pasos y TraefikSi disfrutas del podcast, te agradecería enormemente una valoración en Spotify o Apple Podcast. ¡Ayúdame a difundir la palabra del Open Source!Más información y enlaces en las notas del episodio

¿Te has rendido alguna vez intentando programar en movilidad? Te confieso que lo de programar en la tablet Android no me estaba funcionando, y la razón era sencilla: pereza y falta de un entorno coherente. En el episodio de hoy, te cuento cómo he solucionado este problema de raíz instalando Code Server en un servidor remoto.A lo largo de este audio, exploramos los desafíos de mantener múltiples entornos de desarrollo y por qué la fragmentación mata tu creatividad. Te detallo el paso a paso de mi configuración técnica: desde la creación de una imagen de Docker personalizada hasta la integración de herramientas modernas escritas en Rust (como Bat y LSD) que mejoran la experiencia en la terminal.Lo que aprenderás en este episodio: Por qué un servidor de desarrollo es superior a las instalaciones locales en tablets. Cómo configurar Docker Compose para desplegar Code Server con persistencia real. Seguridad avanzada: Uso de Traefik, Pocket ID y geobloqueo para proteger tu código. Trucos de configuración para VS Code en el navegador: Mapeo de teclas, evitar el conflicto con la tecla Escape y el uso de la fuente JetBrains Mono. Productividad máxima con los modos de Vim integrados en el flujo web. Cómo transformar Code Server en una PWA para eliminar las distracciones del navegador en Android.No se trata solo de tecnología, sino de eliminar las fricciones que nos impiden avanzar en nuestros proyectos. Si quieres saber cómo convertir cualquier dispositivo con un navegador en tu estación de trabajo principal, no te pierdas este episodio.Cronología del episodio:00:00:00 El fracaso de programar en tablet (y por qué)00:01:43 La solución definitiva: Code Server00:02:12 El problema de los entornos fragmentados00:03:53 Mi imagen personalizada de Docker para Code Server00:05:04 Herramientas imprescindibles en Rust (Bat, LSD, SD)00:06:23 Configuración de Rust y herramientas de desarrollo00:07:05 Persistencia y Docker Compose00:08:06 Seguridad: Traefik, Pocket ID y Geobloqueo00:10:03 Optimizando VS Code para el navegador00:11:13 Sincronización y persistencia de extensiones00:12:43 Estética y tipografía (Ayu Dark y JetBrains Mono)00:13:59 El poder de Vim dentro de Code Server00:15:51 Cómo usar Code Server como una PWA en Android00:17:04 Teclado físico: El accesorio obligatorio00:18:50 Conclusiones y futuro del desarrollo remotoRecuerda que puedes encontrar todas las notas, el repositorio y los enlaces mencionados en atareao.es. Si te gusta el contenido, una valoración en Spotify o Apple Podcast ayuda muchísimo a seguir difundiendo el mundo Linux y el Open Source.Más información y enlaces en las notas del episodio

¿Te preocupa tener tus claves y contraseñas en texto plano? En este episodio 770 de Atareao con Linux, te explico por qué deberías dejar de usar variables de entorno tradicionales y cómo Podman Secrets puede salvarte el día. Yo mismo he pasado años ignorando este problema en Docker por la pereza de configurar Swarm, pero con Podman, la seguridad viene de serie.Hablaremos en profundidad sobre el ciclo de vida de los secretos: cómo crearlos, listarlos, inspeccionarlos y borrarlos. Te mostraré cómo Podman gestiona estos datos sensibles fuera de las imágenes y fuera del alcance de miradas indiscretas en el historial de Bash. Es un cambio de paradigma para cualquier SysAdmin o entusiasta del Self-hosting.Pero no nos quedamos ahí. Te presento Crypta, mi nueva herramienta escrita en Rust que integra SOPS, Age y Git para que puedas gestionar tus secretos de forma profesional, permitiendo incluso la sincronización con repositorios remotos. Veremos cómo configurar drivers personalizados y cómo usar secretos en tus despliegues con MariaDB y Quadlets.Capítulos destacados:00:00:00 El peligro de las contraseñas en texto plano00:01:23 El problema con Docker Swarm y por qué elegir Podman00:03:16 ¿Qué es realmente un Secreto en Podman?00:04:22 Ciclo de vida: Creación y muerte de un secreto00:08:10 Implementación práctica en MariaDB y Quadlets00:12:04 Presentando Crypta: Gestión con SOPS, Age y Rust00:19:40 Ventajas de usar secretos en modo RootlessSi quieres que tu infraestructura sea realmente segura y coherente, este episodio es una hoja de ruta esencial. Aprende a ocultar lo que debe estar oculto y a dormir tranquilo sabiendo que tus tokens de API no están al alcance de cualquiera.Más información y enlaces en las notas del episodio

¿Te falta espacio en el teclado o quieres automatizar tareas en Linux de forma física? Soy Lorenzo y en este episodio 769 de Atareao con Linux te cuento cómo he integrado un mini teclado programable de apenas 15€ en mi flujo de trabajo diario.Hablamos de teclados mecánicos, de la comodidad de los teclados partidos y, sobre todo, de cómo no gastarse una fortuna en dispositivos como el Stream Deck de Elgato cuando puedes conseguir resultados similares (¡y más divertidos de configurar!) con hardware económico y un poco de ingenio Linuxero.Lo que descubrirás en este episodio: El hardware: Un análisis de este dispositivo de 3 teclas y una rueda (potenciómetro) basado en el chip CH552. Adiós a Windows: Cómo configurar dispositivos que "solo soportan Windows" directamente desde tu terminal Linux. El poder de Rust: Exploramos la herramienta ch57 para el mapeo de teclas y cómo Rust está facilitando la creación de utilidades para hardware. Configuración técnica: Archivos YAML, mapeo de teclas de función extendidas (F13-F24) y reglas de udev para permisos. Capboard: Te presento el demonio que he desarrollado para gestionar este teclado como un servicio de sistema.Si eres de los que disfruta "cacharreando" con archivos de configuración y quieres llevar tu productividad al siguiente nivel sin vaciar la cartera, no te puedes perder este audio.Capítulos del episodio: 00:00:00 Introducción y mi obsesión por los teclados 00:01:33 ¿Qué es un Stream Deck y por qué no compré el de Elgato? 00:02:47 El mini teclado de 15€: 3 teclas y una rueda 00:05:00 El reto: Configurar hardware diseñado para Windows en Linux 00:06:38 La salvación se llama Rust y el proyecto ch57 00:07:44 Identificando el dispositivo (lsusb y el chip CH552) 00:08:43 Asignando teclas mágicas: de la F13 a la F22 00:10:48 Instalación y mapeo con archivos YAML 00:13:02 Permisos de usuario: Configurando reglas de udev 00:15:08 Bonus: He creado mi propio demonio en Rust (Capboard) 00:17:35 ¿Vale la pena? Mi veredicto y un avance del próximo gadget 00:18:25 Despedida y red de podcastMás información y enlaces en las notas del episodio

¿Sigues usando Docker porque te da pereza el cambio? En este episodio de Atareao con Linux te voy a demostrar por qué los Quadlets son la razón definitiva para que te decantes por Podman de una vez por todas. Si ya te hablé de los Pods y te pareció interesante, lo de hoy es llevar la gestión de contenedores al siguiente nivel: la integración TOTAL con SystemD.En el episodio 768, te explico cómo los Quadlets permiten gestionar tus contenedores, volúmenes y redes exactamente como si fueran servicios nativos de tu sistema operativo. Olvídate de scripts extraños o de depender de herramientas externas; aquí todo se define con archivos de configuración sencillos (.container, .network, .volume) que SystemD entiende a la perfección.Te cuento mi experiencia real migrando mis proyectos actuales. Ya tengo bases de datos PostgreSQL funcionando bajo este modelo y la estabilidad es, simplemente, de otro planeta. Veremos cómo levantar un stack completo de WordPress con MariaDB y Redis utilizando esta tecnología, gestionando las dependencias entre ellos con las directivas 'After' y 'Requires' de SystemD. ¡Se acabó el que un contenedor intente arrancar antes de que la base de datos esté lista!Capítulos del episodio: 00:00:00 Introducción y el adiós definitivo a Docker 00:01:33 ¿Qué es un Quadlet y por qué revoluciona Linux? 00:03:22 Los 6 tipos de Quadlets disponibles 00:05:12 Cómo gestionar un Quadlet de tipo contenedor 00:06:46 Definiendo Redes y Volúmenes como servicios 00:08:13 El flujo de trabajo: Git, secretos y portabilidad 00:11:22 Integración con SystemD: Nombres y prefijos 00:13:42 Desplegando un Stack completo: WordPress, MariaDB y Redis 00:16:02 Modificando contenedores y recarga de SystemD (Daemon-reload) 00:17:50 Logs con JournalCTL y mantenimiento simplificado 00:19:33 Auto-update: Olvídate de Watchtower para siempre 00:20:33 Conclusiones y próximos pasos en la migraciónAdemás, exploramos ventajas brutales como el control de versiones mediante Git, la gestión de logs centralizada con JournalCTL y las actualizaciones automáticas nativas que harán que te olvides de Watchtower. Si quieres que tu servidor Linux sea más profesional, robusto y fácil de mantener, no puedes perderte este audio.Más información y enlaces en las notas del episodio

¡Bienvenidos a un nuevo episodio de Atareao con Linux! Soy Lorenzo y hoy te traigo una confesión técnica: he abandonado mi sistema de gestión de contraseñas de toda la vida. ¿El motivo? La pura y dura velocidad.En el episodio de hoy (el 767), profundizamos en la migración de pass hacia un ecosistema más moderno compuesto por Sops y Age. Te cuento los dolores de cabeza, pero también las inmensas satisfacciones de tener todos tus secretos centralizados en un archivo YAML cifrado de forma inteligente, donde las claves son visibles pero los valores están protegidos.Si alguna vez has sentido que tu flujo de trabajo con secretos es lento o farragoso, aquí te traigo la solución. Te detallo cómo he programado mis propias herramientas en Fish Shell para gestionar el día a día y, sobre todo, te presento mi nueva creación en Rust: Crypta. Esta herramienta es la pieza que faltaba en el puzzle para que trabajar con credenciales en la terminal sea algo que ocurra a la velocidad del pensamiento.Además, exploramos conceptos avanzados como el uso de Yadm para gestionar dotfiles y cómo las plantillas Jinja pueden automatizar la configuración de tus aplicaciones inyectando secretos de forma segura en memoria.Contenido del episodio:00:00:00 Introducción: El reto de gestionar secretos en la terminal00:01:23 Por qué migrar de Pass a Sops y Age00:03:08 La obsesión por la rapidez y el archivo único00:04:26 Repositorios privados y versionado de secretos00:06:59 El flujo de trabajo con .secrets.yml00:08:02 Creando un CRUD personalizado en Fish Shell00:10:30 Sincronización: Secret Pull, Push y Sync00:12:46 Integración avanzada con Jinja y Yadm00:15:28 Kripta: Gestión de secretos de alto rendimiento en Rust00:18:25 Conclusiones y reflexiones sobre la migración00:19:42 Despedida y red de podcastsAcompáñame en esta aventura de optimización extrema. Ya sabes que el día son dos días y uno ya ha pasado, ¡así que vamos a aprovecharlo haciendo que nuestro Linux vuele!Más información y enlaces en las notas del episodio

¿Sigues usando Docker Compose para todo? Es hora de descubrir la verdadera potencia de Podman: los Pods. En este episodio te acompaño en la migración de un stack completo de WordPress, MariaDB y Redis para que veas cómo simplificar radicalmente la gestión de tus contenedores.Aprenderás por qué el concepto de "vaina" (Pod) cambia las reglas del juego al permitir que tus contenedores compartan la misma red y dirección IP, atacando directamente a localhost. Veremos desde el funcionamiento técnico del contenedor Infra hasta la automatización profesional con Quadlet y systemd.¿Qué es un Pod?: El origen del nombre y por qué es la unidad lógica ideal para tus servicios.Adiós a los problemas de red: Cómo conectar WordPress y base de datos sin crear redes virtuales, usando simplemente 127.0.0.1.Seguridad y Sidecars: Blindar servicios como Redis dentro de la misma vaina para que sean inaccesibles desde el exterior.Gestión unificada: Cómo detener, arrancar y monitorizar todo tu stack con un solo comando.Persistencia y automatización: Generar archivos YAML de Kubernetes y convertirlos en servicios nativos de Linux con archivos .kube.Si buscas soluciones prácticas para "cualquier cosa que quieras hacer con Linux", este episodio te da las herramientas para profesionalizar tu infraestructura.Notas completas y comandos utilizados: https://atareao.es/podcast/766

¿Sabías que ejecutar Docker como root es, en esencia, darle las llaves de tu casa a cualquier proceso que corra en un contenedor? En este episodio exploramos el modo Rootless, una configuración que aumenta drásticamente la seguridad de tus servidores al eliminar la necesidad de privilegios de administrador.El Experimento del Escape: Te explico cómo un atacante puede usar el socket de Docker para "escapar" del contenedor y tomar el control total de tu host.User Namespaces desmitificados: Entenderás cómo Linux crea una "realidad paralela" donde eres root dentro del contenedor, pero un usuario normal y corriente fuera de él.La magia de subuid y subgid: Cómo el sistema gestiona los rangos de IDs para que tus procesos vivan en su propia burbuja de seguridad.Podman vs Docker: Por qué Podman detiene ataques de escalada de privilegios de forma nativa gracias a su arquitectura sin demonio y sin root.Guía de implementación: Pasos clave para configurar este entorno en Ubuntu y Arch Linux, incluyendo la gestión de almacenamiento y redes.El truco de los puertos bajos: Cómo permitir que tu usuario use los puertos 80 y 443 sin trucos complejos de firewall, usando simplemente sysctl.Si te preocupa la seguridad de tus servicios autohospedados (self-hosted) o quieres llevar tu gestión de contenedores al siguiente nivel de profesionalismo, este episodio es para ti.Notas completas y comandos: Visita atareao.es para ver todos los scripts y configuraciones mencionadas.YouTube: Busca "atareao" para ver la demostración visual del ataque de escape.Proyecto: Sigue el podcast para más soluciones sobre cómo optimizar tus sistemas Linux.Más información y enlaces en las notas del episodio

¿Es hora de jubilar tus viejos scripts de Bash?

¿Es el fin de una era en mi infraestructura? En este episodio comienzo una de las tareas más importantes de esta temporada: la migración definitiva de Docker a Podman. Si alguna vez te ha preocupado la seguridad de tu servidor o el consumo descontrolado de recursos, este programa es para ti.Históricamente, Docker ha sido la herramienta de referencia, pero su arquitectura basada en un demonio persistente (dockerd) que corre como root presenta riesgos y puntos únicos de fallo que he decidido dejar atrás. Podman llega para solucionar esto de forma elegante, integrándose orgánicamente en Linux y eliminando la necesidad de privilegios de administrador.En este episodio exploramos:El problema del "Gran Hermano": Por qué depender de un proceso centralizado que, si falla, detiene todos tus servicios.Procesos independientes: Cómo Podman lanza contenedores que son procesos hijos directos, mejorando la fiabilidad.Seguridad Rootless: La importancia de ejecutar contenedores sin privilegios de root para reducir drásticamente la superficie de ataque.Transición transparente: Cómo aprovechar lo que ya sabes de Docker usando un simple alias.Gestión de Logs y Registries: La integración nativa con journald y la libertad de configurar múltiples registros de imágenes.El concepto de Pods: Una herramienta clave para agrupar contenedores que comparten red y recursos.Esta es solo la primera entrega de una serie donde profundizaremos en ejemplos prácticos para que tú también puedas optimizar tu sistema Linux.Capítulos00:00:00 Introducción y el reto de migrar a Podman00:01:25 Adiós al demonio: El problema de la arquitectura de Docker00:02:33 Procesos independientes y aislamiento en Podman00:03:49 Integración nativa con Systemd y el modelo estándar de Linux00:04:41 Seguridad: Contenedores sin privilegios de administrador (Rootless)00:06:10 Una transición indolora: El alias de Docker a Podman00:07:33 Registries y gestión de imágenes personalizadas00:09:36 Gestión eficiente de logs y Journald00:11:20 Los Pods: Agrupación de contenedores y comunicación por localhost00:14:51 El patrón Sidecar para añadir funcionalidades00:15:40 Introducción a los Quadlets y futuro de la serie00:17:36 Conclusión y despedida¿Te ha resultado útil? Si te gusta el contenido práctico sobre Linux y el código abierto, no olvides seguir el podcast y dejar una valoración de 5 estrellas en Spotify. ¡Nos escuchamos el próximo lunes!Más información y enlaces en las notas del episodio

En este episodio de Atareao con Linux, te hablo sobre una de las transiciones más importantes que he hecho últimamente en mi flujo de trabajo: el paso del scripting tradicional hacia el uso de Rust como lenguaje de cabecera para resolver mis problemas cotidianos.A pesar de que Fish se ha convertido en mi shell por defecto por lo intuitivo que resulta, el día a día me sigue obligando a crear scripts en Bash que, con el tiempo, terminan convirtiéndose en auténticos mastodontes difíciles de gestionar. Cuando un pequeño script crece demasiado, aparecen las limitaciones: una gestión de errores muy limitada, la falta de tests bien integrados, la ausencia de tipado que provoca errores difíciles de depurar y la pesadilla de manejar JSON o YAML dependiendo siempre de herramientas externas como jq.Para solucionar esto sin tener que montar un proyecto completo de Rust con su Cargo.toml cada vez que quiero hacer algo sencillo, he recuperado una herramienta que es pura magia: Rust Script. Con ella, tengo lo mejor de los dos mundos: la potencia, seguridad y velocidad de Rust, pero con la agilidad y simplicidad de un script de toda la vida.En este episodio te cuento:Mi visión sobre Rust Script: Cómo lo utilizo como un lenguaje de scripting puro para sustituir a Bash cuando la cosa se complica.El fin de la sobrecarga: Te explico cómo escribo scripts sin configurar proyectos completos, eliminando de un plumazo la burocracia de archivos de configuración.Gestión de dependencias: Te muestro cómo declaro los crates que necesito directamente dentro del código mediante comentarios, haciendo que mis scripts sean totalmente autónomos y fáciles de mover de un sitio a otro.Bajo el capó: Cómo funciona el sistema de caché y compilación para que, tras la primera ejecución, tus herramientas vuelen y sean instantáneas.Ejemplos reales: Desde un "Hola Mundo" básico hasta herramientas que consultan APIs REST y procesan información de forma nativa sin herramientas de terceros.Velocidad y fiabilidad: Por qué prefiero un binario tipado y testeado antes que una cadena de comandos en Bash donde un error en una tubería puede pasar desapercibido.Además, aprovecho para adelantarte los próximos episodios técnicos donde voy a meterle mano a fondo a Podman. Quiero explicarte por qué, al haber nacido en Linux, tiene una integración mucho más natural que Docker y cómo pienso sacarle todo el partido.Si tú también sientes que tus scripts de Bash se te están yendo de las manos, te invito a escuchar este episodio y descubrir cómo optimizar tu trabajo diario.Este podcast forma parte de la red de Sospechosos Habituales. Puedes encontrar todos los detalles y los scripts que menciono en las notas del episodio en mi web, atareao.es.¿Te gustaría que en el próximo episodio hiciera la migración en directo de uno de mis scripts de Bash a Rust Script para que veas el proceso paso a paso?Timestamp00:00:00 Introducción y la transición de Bash a Fish00:00:50 Las limitaciones de los scripts complejos en Bash y Fish00:01:26 Por qué elegir Rust para optimizar el trabajo00:02:07 Introducción a Rust Script: Rust como lenguaje de scripting00:02:36 Próximos episodios técnicos: Profundizando en Podman00:03:59 Problemas comunes en Bash: Errores, tipos y datos estructurados00:04:50 El punto intermedio: Rust Script vs. proyectos completos con Cargo00:06:47 Ejemplo práctico: Cómo crear un "Hola Mundo" con Rust Script00:08:07 Funcionamiento interno: Compilación y caché de binarios00:09:43 Ejecución directa y permisos en archivos .rs00:10:44 Cómo instalar Rust Script en Arch Linux y vía Cargo00:11:32 Gestión de dependencias elegante dentro del script00:14:03 Ejemplo avanzado: Uso de múltiples crates y peticiones web00:16:32 Ventajas de trabajar con APIs JSON sin herramientas externas00:18:25 Resumen de beneficios: Potencia, tipado y velocidad00:20:13 Despedida y red de podcast Sospechosos Habituales

¿Sabías que hace poco más de 20 años España fue el epicentro mundial de una revolución tecnológica sin precedentes? En este episodio, nos alejamos de los tutoriales habituales para sumergirnos en la historia viva del software libre en nuestro país.Tengo el inmenso placer de charlar con Jesús González Barahona, profesor de la Universidad Rey Juan Carlos y referente indiscutible del código abierto, para presentaros un proyecto que nos hace especial ilusión: el nuevo podcast "La era de las distros".A principios de los 2000, nombres como LinEx, Guadalinex, LliureX o MAX no eran solo nombres de software; eran apuestas políticas y sociales por la independencia digital. En este episodio analizamos:El rescate de la memoria: Por qué es urgente entrevistar a los protagonistas de esta hazaña antes de que su legado se pierda.La anomalía española: Cómo fue posible que diversas administraciones públicas lideraran el despliegue de miles de equipos con Linux mucho antes de que fuera "cool".Soberanía y libertad: El software libre no como un ahorro de costes, sino como una herramienta para adaptar la tecnología a las necesidades de los ciudadanos.El presente del pasado: El sorprendente hecho de que muchas de estas distribuciones siguen hoy más vivas que nunca en las aulas españolas.Este nuevo podcast no es solo para técnicos. Es un documental sonoro que explora la intersección entre política, sociedad y tecnología. A través de entrevistas con técnicos, gestores y visionarios, reconstruimos el mapa de una época donde España fue pionera en soberanía tecnológica europea.Estreno del proyecto: 19 de enero.00:00:00 Presentación: Atareado con Linux y nuevos proyectos00:01:42 Introducción al nuevo podcast: La era de las distros00:01:58 Presentación de Jesús González Barahona00:02:45 Qué es La era de las distros00:03:45 El impacto de las distribuciones autonómicas en España00:05:18 Divulgación y accesibilidad del podcast para no informáticos00:08:25 Razones por las que estos proyectos no son ampliamente conocidos00:11:46 Vigencia actual de proyectos como LinEx, LliureX y MAX00:12:40 Origen y motivación del proyecto de registro documental00:18:21 Sentimientos encontrados: entre el éxito y la amargura00:21:32 La colaboración inesperada entre diferentes comunidades00:24:15 Situación geopolítica actual y soberanía tecnológica europea00:31:56 Conclusión y fecha de estreno del nuevo podcastWeb oficial: atareao.esGrupo de Telegram: atareao con linuxSigue el proyecto en: La era de las distros (disponible a partir del 19 de enero en las principales plataformas).¿Te gusta este contenido? No olvides dejar una valoración de 5 estrellas en Apple Podcast o Spotify, ¡me ayuda muchísimo a seguir difundiendo el software libre!Más información y enlaces en las notas del episodio

¿Alguna vez has sentido que tu servidor Linux se queda sin aliento por falta de espacio? Muchas veces nos obsesionamos con comprar más almacenamiento, ampliar la cuota de nuestro VPS o añadir discos al NAS, pero la solución no suele ser gastar más, sino limpiar mejor. En este episodio, te cuento cómo descubrí que tenía un "inquilino" con síndrome de Diógenes digital: Docker.Acompáñame en esta "limpieza de año nuevo" donde pasamos la motosierra a más de 600 GB de basura que no servían para nada y que Docker había ido acumulando silenciosamente en mi sistema.No podemos limpiar lo que no vemos. El primer paso es realizar un análisis profundo del almacenamiento. Mientras que herramientas como df -h o dust nos dan una idea general, Docker requiere una mirada específica para entender su estructura de datos.El comando estrella: docker system df es la herramienta fundamental que te dirá exactamente cuántas imágenes, contenedores y volúmenes tienes, pero sobre todo, cuánto espacio es reclaimable (recuperable inmediatamente).En mi caso, el gran culpable no eran las imágenes activas, sino el Build Cache, con cientos de capas intermedias acumuladas tras semanas programando y compilando proyectos en Rust.No se trata de borrar por borrar. Si eliminas todo el caché de construcción de golpe, la próxima vez que necesites compilar un proyecto el proceso será eterno porque Docker tendrá que descargar y reconstruir todo desde cero.Limpieza Quirúrgica: La clave está en usar filtros temporales como --filter "until=48h". Esto permite mantener lo que estás usando en tu desarrollo diario mientras fulminas los archivos obsoletos de la semana pasada.Volúmenes Huérfanos: Aprenderemos a identificar esos datos que quedan "vivos" después de que el contenedor ha sido eliminado y que solo sirven para ocupar espacio innecesario.El problema de los Logs: Si no configuras la rotación, los registros de texto pueden crecer hasta el infinito. Te enseño a usar fd para localizarlos de forma rápida y cómo configurar el archivo daemon.json para limitar su tamaño de forma definitiva.Como buen amante de la eficiencia y la productividad, no quiero tener que ejecutar estos comandos a mano cada semana. He diseñado un script de limpieza llamado docker-clean que gestiona de forma segura contenedores parados, imágenes sin etiqueta y el monstruoso caché de construcción.Para que el sistema se mantenga "hecho un figurín" de forma automática, te explico cómo programar este script mediante un Systemd Timer. Así, cada domingo a las 8:00 AM, tu servidor realizará su propia labor de mantenimiento sin que tú tengas que mover un dedo.00:00:00 La obsesión por el almacenamiento00:01:18 Docker: Un acumulador de basura en tu sistema00:03:40 Diagnóstico profundo con df y dust00:05:45 El comando estrella: docker system df00:07:32 El monstruo del Build Cache y las capas intermedias00:10:24 Volúmenes huérfanos: el cementerio de datos00:11:21 Gestión quirúrgica de registros (logs) con fd00:14:36 Mi script personal de limpieza: docker-clean00:16:18 Automatización total con Systemd Timers00:18:07 Conclusión y propósito de año nuevoPuedes encontrar todos los comandos, el script de limpieza completo y las configuraciones del timer y el servicio en las notas detalladas del episodio en: https://atareao.es¿Y tú? ¿Has comprobado cuánto espacio te está robando Docker hoy? Pásate por el grupo de Telegram t.me/atareao_con_linux y comparte con la comunidad cuántos gigas has logrado recuperar.#Linux #Docker #SelfHosted #DevOps #Atareao #Productividad #SysAdmin #Rust #OpenSourceMás información y enlaces en las notas del episodio

¡Feliz 2026! Comenzamos el año con un episodio cargado de novedades y proyectos que buscan devolver algo de valor a la comunidad del software libre. En esta entrega, te presento dos "regalos" especiales: el renacimiento de una herramienta técnica para creadores de contenido y el anuncio de un nuevo podcast sobre la historia de Linux en España.Todo surge a raíz de una invitación de José Jiménez para participar en una mesa redonda sobre el estado de los podcasts de Linux, junto a David Marzal (KDE Express), Jose (KernelCast) y bajo la impecable producción de David Baquero (Cursos de Desarrollo). Durante esa charla, surgió la recomendación de llevar los contenidos de audio a YouTube para alcanzar nuevas audiencias.Fue en ese momento cuando surgió el recuerdo de Audiowave, un pequeño script que desarrollé hace ocho años para generar vídeos con ondas de audio dinámicas. La idea original era permitir que los audios estuvieran disponibles en plataformas de vídeo incluso cuando el creador no deseara aparecer físicamente en pantalla. El reto actual ha sido no solo recuperar la herramienta, sino darle el "cariño" que merece para los estándares de calidad actuales.Lo que comenzó como un simple envoltorio (wrapper) de FFmpeg escrito en Bash, ha evolucionado hacia una herramienta robusta desarrollada en Rust. Esta nueva versión no solo es más rápida y segura, sino que introduce un nivel de personalización profesional:Sistema de plantillas: Ahora es posible definir estilos reutilizables mediante archivos de configuración, controlando dimensiones, colores y la disposición de todos los elementos visuales.Automatización de metadatos: La herramienta es capaz de extraer el título, el subtítulo y la carátula directamente de los archivos MP3, simplificando al máximo el flujo de trabajo del podcaster.Filtros visuales avanzados: Gracias a la potencia de FFmpeg, Audiowave permite generar desde ecualizadores de múltiples bandas hasta ondas circulares que se modulan en tiempo real con la voz.Optimización de renderizado: Aunque los estilos más complejos pueden requerir un tiempo de procesamiento considerable, el resultado final es una pieza de vídeo de alta fidelidad.La motivación principal para actualizar Audiowave es el lanzamiento de "La era de las distros". Este nuevo podcast documental se centra en las distribuciones Linux autonómicas que nacieron en España a principios de los años 2000, tanto las oficiales respaldadas por instituciones como las iniciativas independientes.A través de sus propios protagonistas, el podcast explora cómo estos proyectos fueron piezas clave en la estrategia de digitalización de diversas comunidades autónomas. Es un ejercicio de memoria histórica tecnológica que revela hitos asombrosos, como la instalación desde cero de más de 100.000 ordenadores con Linux hace ya un cuarto de siglo. Es un pasado fascinante que a veces olvidamos mientras nos maravillamos con noticias similares que llegan hoy desde otros países.Este episodio es una invitación a explorar las herramientas que el código abierto pone a nuestra disposición para comunicar mejor, y un adelanto de un viaje sonoro por la historia del software libre en nuestro país.Más información y enlaces en las notas del episodio

¿Qué hace realmente un usuario de Linux durante todo un año? En este episodio no teorizamos: auditamos. He analizado mi historial de comandos de 2025 y los datos no mienten.Desde el dominio absoluto de Rust hasta la sorprendente eficiencia de uv en Python, hoy te desvelo las 20 herramientas que han vertebrado mi flujo de trabajo. Hablamos de productividad real, de cómo Neovim ha desplazado definitivamente a mis antiguos editores y de por qué herramientas como just o yadm son las joyas ocultas que deberías estar usando ya.En este episodio descubrirás:El Stack de la Eficiencia: Mi top 20 analizado por categorías (Desarrollo, Sistema y Navegación).La transición a Rust: ¿Por qué cargo es el motor de mi día a día?Adiós a la fricción: Cómo herramientas modernas están sustituyendo a los comandos clásicos de toda la vida.Telemetría personal: El método para que tú también audites tu terminal.Si quieres llevar tu productividad en Linux al siguiente nivel y conocer qué software está marcando la diferencia en 2025, este episodio es tu hoja de ruta.

¡Bienvenidos a un nuevo episodio de Atareao con Linux! Estamos cerrando este 2025 y toca hacer balance de las herramientas que realmente han marcado la diferencia en mi servidor. En este episodio te traigo una selección personal de los 6 contenedores Docker que se han vuelto imprescindibles en mi día a día. No solo por su funcionalidad, sino por cómo han simplificado mi flujo de trabajo, mejorado la seguridad y optimizado el rendimiento de mis sistemas.Lo que encontrarás en este episodio:1. Dodge: La alternativa ligera a Portainer que gestiona tus archivos YAML de forma reactiva y permite convertir comandos docker run a compose fácilmente.2. Pocket ID: Seguridad "passwordless" al siguiente nivel. Centraliza tus accesos mediante Passkeys y biometría con soporte OIDC.3. Doc Pick: El sustituto perfecto para la gestión de actualizaciones. Mantén tus imágenes al día con un panel visual intuitivo.4. Beszel: Monitorización de recursos (CPU, RAM, Disco) tanto del host como de cada contenedor individual.5. Quantum: Un fork de File Browser potenciado con búsqueda por lógica difusa e integración con OIDC.6. Memos: Tu centro de micro-notas privado y extremadamente versátil gracias a su API.Timestamps:00:00:00 Introducción y balance del año 202500:01:05 Los seis contenedores imprescindibles de 202500:02:14 Consideraciones sobre el flujo de trabajo y mantenimiento00:03:56 Dodge: El reemplazo moderno y ligero de Portainer00:06:07 Pocket ID: Autenticación passwordless y OIDC00:08:01 Doc Pick: Información y actualización de imágenes de contenedores00:10:40 Beszel: Monitor de recursos de CPU, RAM y Docker00:12:42 Quantum: Fork de File Browser con integración OIDC00:14:39 Memos: Gestión de micronotas y enlaces mediante API00:18:28 Resumen final y despedidaRecursos y enlaces:Más información y enlaces en las notas del episodio

Hola, soy Lorenzo y esto es Atareao con Linux. Seguramente te ha pasado: te atrae la potencia y la eficiencia de un Tiling Window Manager (TWM), pero en cuanto te asomas al abismo de su configuración, te das la vuelta. No tienes tiempo para pasarte semanas editando archivos CSS, configurando barras de estado a mano o intentando que tus aplicaciones no parezcan un "Frankenstein" visual donde nada combina con nada.En este episodio, te traigo lo que he bautizado como el Tiling Window Manager para seres humanos. Quiero contarte mi experiencia personal utilizando la combinación de Niri y Dank Material Shell (DMS), una pareja tecnológica que me ha hecho cambiar mis prioridades por completo y ha transformado mi escritorio en una herramienta de productividad pura.Mi transición: De GNOME a la eficiencia de NiriDurante mucho tiempo, mi escritorio principal era GNOME en un 80% del tiempo. Sin embargo, las tornas han cambiado drásticamente: ahora Niri ocupa casi la totalidad de mi flujo de trabajo, especialmente cuando me siento a programar. Pero Niri por sí solo puede ser austero; la verdadera magia surge cuando le añadimos Dank Material Shell. Gracias a esta capa, he conseguido tener un entorno de escritorio completo, moderno y espectacular sin las complicaciones habituales de los gestores de ventanas en mosaico.¿Por qué deberías probar Dank Material Shell?DMS no es solo un complemento, es una solución integral escrita en Go que utiliza Qt6 para ofrecerte todo lo que necesitas en un escritorio moderno. En este episodio te explico cómo esta herramienta centraliza elementos que normalmente tendrías que configurar por separado, como la barra de estado, el centro de notificaciones o el lanzador de aplicaciones.Hablamos sobre la personalización inteligente: cómo el sistema es capaz de generar paletas de colores dinámicas basadas en tu fondo de pantalla (al estilo Material You) y, lo más importante, cómo logra una coherencia visual total entre aplicaciones GTK y Qt sin que tengas que mover un dedo. Además, analizamos con total sinceridad el consumo de recursos y por qué, a pesar de usar algo más de RAM que una configuración minimalista, la fluidez y la comodidad que aporta compensan con creces la inversión.Instalación y ecosistemaYa seas usuario de Arch Linux o prefieras la estabilidad de Ubuntu, te cuento los pasos clave para que puedas replicar este entorno en tu propia máquina. También exploramos herramientas complementarias del ecosistema como Matugen y Stasis, que terminan de redondear una experiencia de usuario que, sinceramente, creo que es el futuro de los escritorios en Linux.Si buscas un entorno que se adapte a ti y no al revés, donde la estética y la funcionalidad vayan de la mano desde el primer minuto, acompáñame en este episodio. ¡Vamos directo al turrón!Más información y enlaces en las notas del episodio

En este episodio de atareao con Linux te quiero contar una de mis grandes obsesiones: cómo mantener mis imágenes Docker lo más ligeras y seguras posible sin que eso me penalice cuando tengo que "ensuciarme las manos" dentro de un contenedor.Si me sigues desde hace tiempo, ya sabes que siempre busco reducir la superficie de ataque de mis despliegues. Cuanto menos software innecesario tenga una imagen, menos vulnerabilidades. Pero claro, esto tiene un problema evidente: cuando entras en un contenedor basado en una imagen minimalista, te encuentras con que no tienes ni un editor de texto, ni un buscador de archivos, ni nada que te facilite la vida.Para solucionar esto, he actualizado una imagen Docker que es mi auténtica "navaja suiza". En lugar de engordar mis imágenes de producción, utilizo este contenedor especializado que conecto a mis volúmenes cuando necesito gestionar datos, organizar archivos o realizar tareas de mantenimiento.He reconstruido esta herramienta sobre Alpine 3.23 por su ligereza extrema. Pero lo potente es lo que lleva dentro, un ecosistema centrado en herramientas escritas en Rust que son increíblemente rápidas:Shell y Prompt: He sustituido la clásica ash por Fish, para tener una shell interactiva y amigable, junto a Starship para un indicador visual ultra rápido.Productividad: Uso herramientas que reinventan los clásicos: lsd para ver archivos con iconos, bat para leer con resaltado de sintaxis, y fd junto a ripgrep para buscar cualquier cosa en milisegundos.Gestión y Edición: Para moverme por el sistema uso yazi, que es un gestor de archivos para terminal rapidísimo, y por supuesto Neovim para cualquier edición profesional.Mi arma secreta (rnr): He incluido rnr para renombrar archivos de forma masiva usando expresiones regulares, algo vital para organizar mis bibliotecas de series y películas.En este episodio te explico por qué me resulta mucho más cómodo utilizar volúmenes Docker en lugar de mapear directorios del host. Te cuento cómo esta práctica me facilitó la vida al migrar a Dockge y cómo gestiono mis datos multimedia de forma eficiente.Para que tú también puedas usarlo, te comparto el script que utilizo para levantar este contenedor de forma efímera e interactiva:Con este comando, el contenedor se destruye al salir, manteniendo mi sistema limpio y mis procesos gestionados correctamente gracias al flag --init.Más información y enlaces en las notas del episodio

Hasta hace poco, MinIO era el rey indiscutible para implementar almacenamiento S3 autoalojado. Pero un cambio de licencia polémico (de Apache 2.0 a la estricta AGPL v3) y, lo que es peor para el usuario libre, la eliminación de la Consola GUI de la versión abierta, han forzado a muchos, incluido yo, a buscar una alternativa. ¡Y la hemos encontrado!En este episodio, te explico a fondo qué es S3, por qué este protocolo de almacenamiento de objetos es una pieza clave e indispensable para cualquier infraestructura de selfhosting o *homelab*, y te presento a RustFS, el nuevo servidor compatible con la API de S3 que está diseñado para la comunidad, manteniendo la promesa de ser libre, transparente, rápido, y lo más importante: con su interfaz gráfica de administración incluida.

¿Tu servidor o escritorio Linux está lento o no te deja desmontar un disco? ¿Borraste un archivo gigante pero el espacio no se liberó? ¡Tenemos al culpable!En este episodio de atareao con Linux, te destripo el comando más poderoso para el diagnóstico de sistemas: lsof (List Open Files).Aprenderás a usar este detective de recursos para resolver los problemas más frustrantes de administración de sistemas, desde la configuración de Docker hasta la optimización de tu VPS o Raspberry Pi.

Especial Encuesta de Self-Hosting 2025!

Niri, Sherlock y Stasis: El Atajo que Disparó mi Productividad en Wayland

El título de este episodio podría sonar a clickbait apocalíptico, pero te aseguro que cada palabra es real. Durante un periodo crítico, las actualizaciones automáticas de seguridad en Ubuntu estuvieron completamente rotas. ¿El culpable? Un ambicioso proyecto para modernizar Linux reemplazando utilidades básicas escritas en C por versiones en Rust. Este proceso de "oxidación" nos ha dejado dos fallos críticos que analizaremos a fondo.En este programa urgente, no solo destripamos lo que falló, sino que lo convertimos en un caso de éxito rotundo para el desarrollo de código abierto. Si eres usuario de Linux, especialmente de Ubuntu, tienes que escuchar esto para entender por qué este tropiezo es, en realidad, un gran salto adelante para la seguridad de tu sistema.Ubuntu, en su versión intermedia 25.10 (Questing Quokka), decidió introducir dos piezas de software fundamentales escritas en Rust para probar su estabilidad antes de una versión LTS:uutils coreutils: La reimplementación de los comandos básicos de GNU (como ls, cp, y el protagonista de esta historia, date).sudo-rs: La reimplementación del comando sudo, la puerta de entrada a los permisos de administrador (root).Ambas fallaron poco después del lanzamiento. Analizaremos dos problemas principales:El Problema: El comando date -r se utiliza para obtener la hora de última modificación de un archivo. La versión en Rust de las coreutils tenía un error lógico: en lugar de devolver la fecha del archivo, siempre devolvía la fecha y hora actual del sistema.La Consecuencia Desastrosa: Te explico cómo esta simple incorrección lógica rompió el mecanismo de actualizaciones automáticas desatendidas (unattended-upgrades). El sistema, al consultar la fecha de un archivo de referencia con el comando defectuoso, creía que la última actualización se había hecho "ahora mismo", y por lo tanto, no ejecutaba ninguna nueva búsqueda ni instalación de parches de seguridad. Un bug silencioso que te deja vulnerable. Esta misma lógica fallida puede afectar scripts de backup que comprueban la antigüedad de las copias de seguridad con date -r.Exposición de la Contraseña: Cuando un usuario comenzaba a introducir su clave de sudo y el tiempo de espera (timeout) expiraba, el código defectuoso de sudo-rs exponía en pantalla y potencialmente en el historial de la shell la parte de la contraseña que ya se había tecleado. ¡Un fallo de seguridad grave que comprometía la confidencialidad de tu clave de administrador!Fallo de Autenticación Avanzada: También se produjo un fallo más técnico relacionado con la gestión de las credenciales de root bajo ciertas configuraciones (targetpw o rootpw), permitiendo un posible bypass de autenticación a usuarios locales que reutilizaran "pases rápidos" temporales defectuosos.La parte más constructiva de esta historia es la velocidad de respuesta. Aquí es donde se demuestra el valor real de probar estos cambios en versiones intermedias:Respuesta Inmediata.Divulgación Coordinada (CVD).El Valor de la LTS.No podemos olvidar el objetivo principal. El uso de Rust en uutils coreutils y sudo-rs busca la seguridad de la memoria, eliminando las causas fundamentales de la mayoría de los fallos de seguridad críticos en el código C que tienen décadas de antigüedad.Más información y enlaces en las notas del episodio

En este episodio profundizamos en la optimización de tus sistemas Docker. El objetivo de hoy: implementar nuevas y mejores prácticas para que tus contenedores sean más estables y eficientes. Si buscas cómo sacar el máximo partido a tu infraestructura autoalojada, esta es tu guía.Uno de los problemas más comunes al trabajar con Docker Compose es que los servicios dependientes (como una aplicación web o un servidor de correo) intentan conectarse a la base de datos antes de que esta haya terminado de arrancar, provocando errores.Te muestro mi solución PRO para esto: utilizamos la combinación de la directiva depends_on con la condición service_healthy.Esta configuración asegura que servicios críticos como Gitea (mi servicio de alojamiento de repositorios Git) y Stalwart (mi servidor de correo) solo se inician cuando su respectiva base de datos PostgreSQL ha pasado su chequeo de salud y está lista para aceptar conexiones. Esto garantiza una secuencia de inicio robusta y sin fallos, una mejora fundamental en la gestión de tus datos y sistemas.Gitea : Vemos cómo configurar el healthcheck para la base de datos PostgreSQL usando pg_isready y cómo el servicio Gitea espera por esta condición. También optimizamos el tráfico interno del runner de Gitea para que use la red interna de Docker (http://gitea:3000), reduciendo la carga de Traefik y mejorando la seguridad.Stalwart : En el caso de mi cliente de correo, he migrado la base de datos de RocketDB a PostgreSQL. La razón es sencilla: PostgreSQL es más transparente y me permite integrar sin esfuerzo mi contenedor personalizado (atareao/postgres-backup:latest) para hacer copias de seguridad eficientes y automatizadas.En este episodio, también te presento una nueva herramienta que me ha encantado: Dockpeek.Dockpeek es un panel de control autoalojado y muy ligero para Docker, perfecto para la gestión de contenedores en múltiples hosts. Si te gustan las herramientas que reemplazan funcionalidades complejas con soluciones sencillas, Dockpeek te va a encantar.Características destacadas: Acceso web con un clic, mapeo automático de puertos, registros de contenedores en vivo, integración con Traefik y chequeo de actualizaciones de imágenes.Te comparto el compose.yml que utilizo para instalar Dockpeek junto a Traefik.Quantum (Filebrowser): He ajustado los permisos y la configuración del servicio que utilizo para compartir archivos. Te explico la solución al problema de permisos que surgió al intentar usar un usuario que no es root, modificando el uid, gid y mode en la sección configs del compose.yml.Escucha el episodio para obtener el tutorial completo y adaptar estas soluciones a tu Raspberry Pi o VPS. ¡Es la forma más práctica de optimizar tu productividad y tus sistemas Linux!¡Suscríbete a "atareao con Linux" para no perderte ningún tutorial y llevar tu experiencia con Linux a un nivel PRO!

En este episodio, me sumerjo en el lanzamiento de Ubuntu 25.10 "Questing Quokka" y analizo las novedades más importantes y controvertidas. Aunque estoy en el mundo Rolling Release (ArchLinux), me gusta centrarme en lo que traen las nuevas versiones.Temas clave y soluciones prácticas:Seguridad y Rendimiento: Hablo sobre la gran novedad que ha generado debate: la incorporación experimental de sudo-rs y rust-coreutils. Analizo por qué Canonical está reescribiendo estas utilidades esenciales en Rust y aclaro si esto realmente rompe con la filosofía GNU/Linux.Escritorio Productivo: Revisamos el nuevo entorno GNOME 49, con mejoras como los controles multimedia en la pantalla de bloqueo y el reemplazo de herramientas como el terminal (por Ptyxis) y el visor de imágenes (por Loupe).Herramientas para Desarrolladores: Si eres desarrollador o sysadmin, esta versión trae actualizaciones significativas: Python 3.14, Rust 1.85, OpenJDK 25 y soporte experimental para TPM 2.0.Bonus Práctico: Pacstall: Te muestro qué es Pacstall, un gestor de paquetes alternativo en la línea de los PKGBUILD de ArchLinux, y cómo puede facilitar la instalación de software de terceros en tu sistema Ubuntu. Una herramienta esencial para estar "a la última".Escucha y descubre todas las soluciones que trae Ubuntu 25.10 para "cualquier cosa que quieras hacer con Linux".Más información y enlaces en las notas del episodio

Ya sea que gestiones una instancia de Syncthing, un backend de Obsidian con Docker, o tu proxy inverso con Traefik, sabes que la necesidad de revisar logs o reiniciar un contenedor puede surgir en cualquier momento. La solución habitual es la Terminal SSH, lo que te obliga a sacar el portátil o lidiar con interfaces incómodas en el móvil.En este episodio, te presento Docker Manager, una aplicación gratuita y open source construida con Flutter y un hermoso diseño Material Design. Esta herramienta es tu centro de comando definitivo para Docker, diseñado específicamente para pantallas pequeñas, permitiéndote abandonar el tedio del SSH para el 99% de las tareas diarias. Es una solución de productividad pura, muy en la línea de lo que buscamos en atareao con Linux: soluciones prácticas para "cualquier cosa que quieras hacer con Linux".Este episodio es un tutorial práctico paso a paso para que puedas poner Docker Manager en marcha y sacarle el máximo partido:Conexión Segura Multiserver: Explicaremos detalladamente cómo configurar la conexión a múltiples hosts Linux (VPS, Raspberry Pi, máquinas virtuales) y por qué debes utilizar la autenticación por clave privada SSH para mantener tu infraestructura segura. La app se integra perfectamente con tu pila de red móvil, lo que significa que funciona sin problemas a través de VPNs como WireGuard o Tailscale.Control Total de Contenedores: La facilidad para realizar operaciones esenciales: Start, Stop, Restart, Inspect y Remove con un solo toque. Haremos hincapié en el filtrado por Docker Compose Stacks, esencial para quien gestiona múltiples servicios como bases de datos o instancias de Rust alojadas en contenedores.Diagnóstico Avanzado en Movimiento:Logs en Vivo: Revisar los logs en tiempo real es vital para el debugging de emergencia.Estadísticas del Contenedor: Ver el uso de CPU y memoria al instante para identificar cuellos de botella.Shell Interactivo: La característica estrella. Te mostraremos cómo iniciar un shell (bash) dentro de un contenedor o en el host Linux mismo. Esto te da la libertad de usar herramientas como redis-cli o revisar configuraciones rápidas sin abrir un cliente SSH.Mantenimiento y Limpieza del Sistema: Analizaremos la función System Cleanup (Pruning) para deshacernos de esas imágenes y volúmenes "colgantes" que roban espacio.Gestión de Imágenes, Redes y Volúmenes: Un vistazo a cómo la aplicación simplifica la visualización y gestión de estos componentes clave de Docker. Incluso hablaremos de la flexibilidad para configurar el Docker CLI Path, lo que abre la puerta a la gestión de Podman también.Docker Manager es una herramienta indispensable que libera tu escritorio Linux y te da el poder de administración en tu bolsillo. Ya no tendrás que interrumpir tu flujo de trabajo en Neovim o cerrar tu sesión de escritorio GNOME para hacer una comprobación rápida. Es la solución perfecta para mantener tus servicios (desde un servidor web hasta una instancia de Obsidian) funcionando sin problemas 24/7.Más información y enlaces en las notas del episodio

¿Estás seguro de que tu servidor Linux y tus contenedores Docker están a salvo de intrusos?

En este episodio me sumerjo en uno de los entornos de escritorio más comentados y esperados del mundo open source: COSMIC.Mi podcast se centra en Linux y el software de código abierto, ofreciendo soluciones y métodos para mejorar la productividad, y al ver el hype alrededor de COSMIC, no pude resistirme. Lo instalé en mi ArchLinux con el objetivo de probarlo a fondo, ver cómo se comporta y, sobre todo, evaluar si realmente ofrece algo que me haga considerar migrar de mi combinación actual de GNOME y Niri.Y lo cierto es que me he encontrado con un escritorio interesante, que combina la opción por un Tiling Window Manager con la de un escritorio tradicional. Pero, como en toda herramienta, tengo mis peros.Análisis de COSMIC: Lo Bueno, Lo Malo y Mis Críticas SincerasLa Excelencia en Tiling: Sin lugar a dudas, lo que más me ha gustado de Cosmic es su gestor de ventanas tipo tiling. Sinceramente, es la mejor experiencia de Tiling Window Manager que he probado hasta la fecha en un entorno de escritorio tradicional. Esta es una gran ventaja sobre los gestores puros (i3, Sway, Niri) que te obligan a instalar y configurar un lanzador, un gestor de red, una barra de tareas, etc. Si buscas probar el tiling sin complicarte la vida, COSMIC es una gran opción.Productividad en Código: ¿Mejor que Niri? A pesar de la calidad de su Tiling, no alcanza el nivel de Niri para programar. Con Niri, tengo la facilidad de construir el espacio de trabajo que necesito en cada momento con una rapidez y sencillez inigualables. En este aspecto, COSMIC todavía no se acerca a la fluidez que busco.Los Auxiliares y Configuración: Cosmic incluye todas esas herramientas que completan la experiencia de usuario: barra de tareas, dock, notificaciones. La herramienta de configuración es bastante completa y muy al estilo GNOME, lo que la hace familiar para muchos usuarios. No tiene tantas opciones como GNOME, pero es funcional.La Decepción Estética (¡El Aspecto Visual de 2015!): Este es mi gran "pero". Desde mi punto de vista, el aspecto visual de Cosmic es propio de hace diez años. Es como volver al pasado. No está tan pulido como GNOME o KDE; la integración con herramientas de terceros es mejorable y, sinceramente, le queda un largo camino para ser un entorno de escritorio atractivo.Las Aplicaciones Nativas y mi Problema con Flatpak: Confieso que no me gustan las aplicaciones nativas de Cosmic; creo que el equipo debería centrarse en pulir el entorno para integrar perfectamente las aplicaciones de terceros. Pero lo que realmente "remata la fiesta" es la tienda de aplicaciones. Resulta que todas las aplicaciones que ofrece, o al menos las que vi, hay que instalarlas con Flatpak. Ya sabéis que no puedo con Flatpak; me parece una locura que para instalar una herramienta sencilla haya que descargar paquetes que ocupan una barbaridad, se integran pobremente y, a menudo, ni funcionan correctamente.Conclusión: El tiling de Cosmic funciona muy bien y es una gran puerta de entrada para los nuevos usuarios. Pero en el resto de aspectos, todavía tiene mucho que recorrer para estar a la altura de entornos más maduros como GNOME o KDE.Si buscas soluciones prácticas para la gestión de datos, la optimización de sistemas Linux o quieres ver la evolución de tecnologías clave como Docker, Neovim, Rust o Traefik, este episodio te dará una perspectiva útil sobre el futuro de los escritorios Linux.Más información y enlaces en las notas del episodio

En este nuevo episodio del podcast nos sumergimos de lleno en la evolución constante de Neovim para asegurar que tu entorno de desarrollo y tu productividad sigan a la vanguardia en 2025.Como sabéis, mi podcast "atareao con Linux" se centra en Linux y el software de código abierto, con un estilo muy práctico y orientado a tutoriales, buscando ofrecer soluciones y métodos para mejorar la productividad. Y no hay mejor herramienta para la productividad que un editor de código optimizado.De vez en cuando, es crucial revisar qué se está cocinando en el mundo Neovim, no solo para incorporar novedades sino para actualizar y optimizar la configuración de plugins ya existentes. Es un mundo que no para, con nuevos complementos apareciendo constantemente. Por eso, un año después de mi último recopilatorio similar (episodio 649, donde, por cierto, 3 de 5 plugins siguen siendo fundamentales), he vuelto a hacer un paseo por dotfiles.El resultado son cinco complementos que son IMPRESCINDIBLES para cualquiera que busque la máxima eficiencia al codificar, administrar archivos o gestionar repositorios, todo dentro de Neovim.Estos son los 5 Plugins que te permitirán EXPRIMIR Neovim:atone: Una auténtica genialidad y un descubrimiento que no imaginaba. Se trata de un árbol de deshacer visual. Este plugin resuelve el problema de tener que deshacer todos los cambios para volver a un estado anterior; con :Atone abres un historial visual donde puedes navegar y restaurar fácilmente. Es como tener un control de versiones a nivel de edición local.flash: Pasamos una enorme cantidad de tiempo navegando por nuestro código. flash es más que una simple mejora de los movimientos f o t; permite saltar a cualquier parte del texto de manera eficiente, buscar palabras completas o patrones, y realizar búsquedas contextuales, por ejemplo, saltando directamente a la siguiente función o variable. Acelera tu flujo de trabajo de forma dramática.tiny-inline-diagnostic: Este plugin soluciona uno de los problemas más molestos con los diagnósticos largos, especialmente los de Rust (que son increíblemente verbosos): el texto se cortaba. Ahora, con este complemento, los mensajes de error y sugerencias aparecen completos en vivo y en directo, sin necesidad de recurrir a plugins auxiliares.NeoGit: Un complemento que tenía instalado pero no interiorizado, y que he recuperado con un atajo de teclado () para forzar su uso. Neogit es una interfaz de usuario completa para git dentro de Neovim. Facilita todas las operaciones comunes de Git (ver estado, hacer commits, gestionar ramas) sin tener que abandonar la comodidad de tu editor. Un gran paso hacia la centralización de tareas de desarrollo.yazi: Finalmente, he resucitado este complemento que me permite utilizar el gestor de archivos Yazi integrado en Neovim. Aunque uso Neotree, la familiaridad y rapidez de Yazi para tareas específicas, como renombrar y reorganizar archivos de episodios, es una gran ventaja en mi flujo de trabajo.Más información y enlaces en las notas del episodio

¿Cansado del "trabajo sucio" en tus proyectos de código? En este episodio te muestro mi kit de supervivencia en la Terminal de Linux: 4 herramientas CLI que automatizan desde el mensaje de commit con IA hasta el versionado completo del proyecto con Rust.. just (Task Runner)

Si confías tus recuerdos a Immich (tu servidor de fotos self-hosted), la seguridad de esos datos no es opcional, es obligatoria. En este episodio, te muestro el método definitivo para garantizar la seguridad de tus fotos y metadatos sin depender de soluciones comerciales.El desafío de Immich es realizar un backup coherente que sincronice los archivos y la base de datos (PostgreSQL) al mismo tiempo. Para resolver esto, he creado una solución robusta y práctica.Veremos en detalle:El Orquestador: Te presento mi proyecto rubadb, la herramienta que he desarrollado para automatizar el flujo de backup de principio a fin, incluyendo la gestión de retención automática.El Especialista en Bases de Datos: Analizamos a fondo postgresus, la utilidad que nos asegura un dump limpio y comprimido de la base de datos de PostgreSQL (la clave de tus metadatos), con soporte para múltiples destinos (S3, Dropbox, etc.).La Configuración Práctica: Te explico cómo integrar ambas herramientas en un entorno Docker para conseguir un proceso automatizado, ultra-seguro y que te dará la tranquilidad de saber que tus recuerdos están a salvo.Si quieres llevar la protección de tus aplicaciones self-hosted al siguiente nivel con soluciones de código abierto y prácticas, este episodio es para ti.Más información y enlaces en las notas del episodio

En este episodio, exploramos a fondo Ghostty, el emulador de terminal que está generando entusiasmo en la comunidad Linux y de código abierto. Si buscas una terminal que combine velocidad y funcionalidad sin compromisos, Ghostty es la respuesta.Te explico cómo Ghostty logra ser ULTRA-RÁPIDO utilizando la aceleración por GPU y por qué su diseño nativo lo hace sentir tan integrado en tu escritorio Linux (GTK4 en el caso de Linux).Puntos clave que cubriremos:La importancia del Renderizado por GPU y cómo mejora el rendimiento en Linux.Características avanzadas de productividad: Gestión nativa de pestañas, ventanas y paneles (splits).El innovador Protocolo Gráfico Kitty, que te permite ver imágenes directamente en la terminal.Cómo la configuración sencilla y el soporte para ligaduras y temas automáticos impulsan tu flujo de trabajo.Ghostty es una alternativa sólida y moderna a Kitty o Alacritty, ofreciendo velocidad y una serie de características avanzadas que lo posicionan como uno de los emuladores de terminal del futuro.Más información y enlaces en las notas del episodio

En este episodio, me enfrento a un desafío de rendimiento real: el consumo de CPU de PostgreSQL se dispara, pero sin alta actividad de lectura/escritura.Viajaremos a través de un diagnóstico detallado utilizando herramientas nativas de Postgres como pg_stat_activity y pg_stat_statements para desenmascarar las causas ocultas:La Sobrecarga de Conexión: Descubriremos cómo un simple healthcheck de Docker (pg_isready) configurado incorrectamente puede paralizar tu servidor por el alto overhead de gestión de procesos.El Cuello de Botella de la Aplicación: Analizamos y corregimos un error de diseño de código en Rust/Axum donde se recompilan Expresiones Regulares (Regex) en cada petición, consumiendo innecesariamente ciclos de CPU.Una lección práctica esencial para cualquiera que gestione bases de datos, despliegues en Docker o desarrolle aplicaciones eficientes en Rust en entornos Linux. Aprende a identificar estos fallos y a optimizar tu código mediante la precompilación de Regex utilizando TryFrom y Arc.Más información y enlaces en las notas del episodio

En este episodio de "atareao con Linux", abordamos una frustración común: la sobrecarga de complejidad en el mundo del blogging. Si has intentado usar WordPress y te has cansado de gestionar plugins, temas y vulnerabilidades, o si las soluciones de Static Site Generator (SSG) te parecen excesivas para simplemente publicar notas y código, Noet es la solución que has estado buscando.Noet es una plataforma de blogging de código abierto con una filosofía clara: priorizar la escritura. Su diseño se basa en quitar todo lo que se interpone entre tú y la publicación de tu contenido. Es, esencialmente, un editor de texto avanzado que guarda posts en una base de datos y los sirve como un sitio web limpio y legible.La verdadera magia de Noet reside en su simplicidad técnica, lo cual lo hace perfecto para nuestro entorno Linux (VPS, Raspberry Pi, o tu servidor local):Single Binary (Go): Todo el backend se compila en un único ejecutable (escrito en Go), lo que facilita enormemente el despliegue y el mantenimiento en cualquier plataforma Linux.SQLite para la Gestión de Datos: En lugar de depender de bases de datos externas como MySQL o PostgreSQL, Noet usa SQLite. Esto significa que todos tus posts y configuraciones se almacenan en un solo archivo, noet.db. Esta característica es fundamental para una gestión de datos eficiente y para realizar copias de seguridad de forma increíblemente sencilla.Despliegue con Docker: Fieles a nuestro estilo práctico, te mostramos el archivo docker-compose.yaml necesario para poner Noet en marcha en cuestión de minutos. Si ya usas Docker para servicios como Traefik, Syncthing o tus bases de datos [cite: 2025-07-15], añadir Noet a tu stack es trivial.Para el escritor técnico o el power user de Linux, Noet brilla en su editor:Soporte Markdown Nativo: Usa la sintaxis que ya conoces.Código y LaTeX: El editor soporta resaltado de sintaxis para bloques de código y permite incrustar ecuaciones matemáticas con LaTeX/KaTeX. Es ideal para documentar tus proyectos o publicar tutoriales avanzados.Auto-guardado: No pierdas ni una línea de lo que escribes.Sencillez en Imágenes: Arrastra y suelta para subir imágenes y gestiona su tamaño con un clic.Si buscas mejorar tu productividad, simplificar tu infraestructura y tener un blog que se sienta tan ligero y moderno como Neovim u Obsidian [cite: 2025-07-15] pero listo para publicar en la web, tienes que probar Noet.Escucha el episodio para obtener todos los comandos, el archivo docker-compose y los mejores consejos de uso.Más información y enlaces en las notas del episodio

¿Tu Watchtower te ha dejado alguna vez un servicio crítico caído? Es hora de automatizar la seguridad de tus contenedores Docker, ¡pero con control total y una Interfaz Gráfica (Web UI)! Tugtainer es la alternativa que estabas buscando para decirle adiós a las vulnerabilidades y a los "desastres del sábado". Si gestionas tu propio stack en Linux, esta herramienta self-hosted te va a cambiar la vida. Escucha y descubre cómo tener contenedores siempre al día, pero con seguridad.Hay dos cosas que obsesionan a cualquier administrador de sistemas que utiliza Docker en entornos self-hosted: las copias de seguridad de las bases de datos y la actualización constante de las imágenes para evitar vulnerabilidades. Aunque la actualización automática es fundamental como acción preventiva, si se hace de forma completamente desatendida, puede causar más de un trastorno.Durante años, he usado Watchtower para la mayoría de mis servicios. Sin embargo, esta herramienta, aunque se integra perfectamente con Docker y las etiquetas, tiene dos grandes problemas: carece de una interfaz gráfica para ver qué está ocurriendo y lleva tiempo sin recibir actualizaciones.El Dilema del Control:Los servicios críticos, como las páginas web que administro (con stacks de WordPress, MariaDB y Nginx), no pueden permitirse caídas. Por eso, dejé la política de actualizaciones diarias y la cambié por una revisión semanal (los sábados). Hoy, vamos a resolver este dilema: ¿Cómo conseguimos la automatización de la seguridad sin sacrificar la estabilidad?Llega Tugtainer: El Control Gráfico que NecesitabasEn este episodio, te presento una herramienta nueva y prometedora (¡con solo un mes de vida!) que se posiciona como una alternativa a Watchtower y Ouroboros. Se trata de Tugtainer, la solución que añade una Web UI completa a la gestión de actualizaciones de Docker.Lo que Aprenderás en el Episodio:Por qué mi stack web (con dependencias service_healthy) sigue dándome problemas al actualizar, y la lección aprendida.Las advertencias cruciales del desarrollador de Tugtainer: por qué no se recomienda para entornos de producción (¡al menos por ahora!).Análisis a fondo de las siete características de Tugtainer que te dan control total:Configuración por Contenedor: Decidir si un servicio CRÍTICO (como Traefik) solo se verifica o si se auto-actualiza.Programación Crontab: Control total sobre cuándo se lanzan las comprobaciones.Autenticación y Notificaciones: Seguridad y visibilidad al instante.Limpieza de imágenes: Adiós a las imágenes obsoletas que ocupan espacio.Mi propia implementación de Tugtainer con Docker Compose, Traefik y Dockge (¡una herramienta que deberías conocer!).Si utilizas Linux, Docker y buscas maximizar tu productividad y seguridad en tu VPS o Raspberry Pi, este episodio es una guía esencial para pasar de la automatización ciega a la automatización inteligente.¡Dale al play y descubre si Tugtainer se queda o no en mi propio stack de atareao!Soy Lorenzo Carbonell, "atareao". En este podcast me centro en el software libre y Linux. Mi estilo es práctico y te traigo soluciones, métodos y tutoriales para mejorar la productividad, gestionar datos y optimizar sistemas Linux. Si te interesa Docker, Neovim, Rust, Syncthing o configurar servicios en plataformas como Raspberry Pi o VPS, ¡suscríbete!Más información y enlaces en las notas del episodio

¡Atención usuarios de Arch Linux! En este nuevo episodio de Atareao con Linux, te desvelo la herramienta TUI (Terminal User Interface) que está cambiando por completo la forma de gestionar paquetes, tanto de los repositorios oficiales como del vasto ecosistema del Arch User Repository (AUR). Si el factor productividad es más importante para ti que el factor ilusión de las nuevas versiones, y valoras la filosofía KISS (Keep It Simple, Stupid) y el modelo rolling release, este tutorial práctico es crucial para optimizar tu flujo de trabajo.Mi nombre es Lorenzo Carbonell ("atareao"), y mi podcast se centra en ofrecer soluciones para cualquier cosa que quieras hacer con Linux. Este episodio es el ejemplo perfecto: te muestro cómo simplificar lo que antes requería múltiples comandos.Comenzamos profundizando en la que es, para muchos, la razón principal para elegir Arch Linux: el AUR (Arch User Repository). Este es un gran repositorio comunitario que te da acceso a una cantidad inmensa de software, incluyendo herramientas de nicho, versiones *-git y *-svn con las últimas características de desarrollo.Pero, ¿cómo gestionamos este poder?El AUR no contiene binarios, sino PKGBUILDs—scripts de compilación escritos por la comunidad que instruyen a tu sistema a descargar, verificar, compilar e instalar el paquete. Para manejar esto, necesitas un AUR Helper.He estado utilizando Paru durante mucho tiempo, y sigo encantado con él. Es una herramienta escrita en Rust que combina las funciones del gestor oficial pacman y la gestión de AUR.Características clave de Paru para la productividad:Herramienta Unificada.Seguridad y Transparencia.Gestión de Huérfanos.Y ahora, la estrella del episodio: Pacsea. Esta es una nueva herramienta de terminal, presentada como una TUI, que simplifica enormemente las tareas de búsqueda e instalación. También escrita en Rust, pacsea ofrece una interfaz intuitiva para buscar, filtrar e instalar paquetes.Por qué Pacsea es un game changer para tu productividad:Diseño de Tres Paneles: Interfaz clara con resultados, búsquedas recientes/instalación e información detallada del paquete.Seguridad Visual: Incorpora un visor de PKGBUILD que puedes abrir con Ctrl+x o un solo clic. Esto te permite revisar el código antes de la compilación e instalación.Instalación por Cola (Queueing): Pulsa la tecla Espacio para añadir varios paquetes a la cola y confirmar la instalación por lotes con Enter.Búsqueda Instantánea y Optimizada: El sistema de búsqueda utiliza debouncing para ser inmediato y simultáneo en repos oficiales y AUR.Filtros Clicables: Puedes filtrar los resultados directamente haciendo clic en las etiquetas [AUR], [core], [extra], etc..Información Esencial al Instante: Muestra la popularidad del AUR (estrellas), el estado de los servicios Arch/AUR y las noticias críticas que requieren intervención manual.Aunque siempre se puede exprimir más a herramientas nativas como paru y pacman, la facilidad de uso y la eficiencia de Pacsea la convierten en una herramienta imprescindible para mi flujo de trabajo en Arch Linux.Si buscas soluciones claras y directas para mejorar tu productividad, gestionar servidores web, proxies inversos (como Traefik) o utilizar herramientas avanzadas (como Docker, Neovim o Rust) [cite: 2025-07-15], este podcast es tu guía.

Si tienes un servidor Linux expuesto a Internet, ya sea un VPS o una Raspberry Pi alojando tus servicios Docker, este es un episodio que no te puedes saltar. Detrás de ese proxy inverso (Traefik es mi elección), se esconde un tráfico que rara vez revisamos, y te aseguro que no todo el mundo tiene buenas intenciones.Tras un incidente reciente que me obligó a abrir mi servidor al mundo (y no solo a España, como lo tenía restringido inicialmente), la cantidad de visitantes desconocidos y peticiones curiosas que encontré me hizo poner manos a la obra. No es solo un tema de seguridad; es de recursos.Cada visita cuesta. Sí, has oído bien. Cada interacción con tu servidor requiere un gasto de CPU y memoria RAM. Los bots y scanners que buscan vulnerabilidades o hacen peticiones inútiles están consumiendo silenciosamente la capacidad de tu sistema, dejando menos para tus visitas de calidad (las que realmente quieres). Es esencial saber quién te visita, dónde va, y con qué intenciones, para poder actuar y liberar esos recursos.Mi objetivo, como siempre en atareao con Linux, era encontrar una solución de código abierto que fuera sencilla de implementar y, crucialmente, que no se llevara por delante todos los recursos de mi propio servidor.El punto de partida de la investigación es siempre el access.log de Traefik, que es el registro fundamental de todas las peticiones.Estuve probando distintas combinaciones, incluyendo algunas pesadas y complejas, como:Vector, Prometheus, Grafana y Loki.Vector, Victorialogs, Grafana y Loki.Si bien estas son soluciones potentes, su complejidad y el alto consumo de recursos me hicieron descartarlas. La solución no debe ser un problema de rendimiento en sí misma.Finalmente, di con la combinación que es simple, eficiente y con la que estoy realmente enamorado por su facilidad de uso e implementación.Vector es la herramienta clave para recopilar, transformar y enrutar todos tus logs, métricas y trazas. Es de código abierto, hasta 10 veces más rápido que cualquier alternativa y es lo que me permite un enriquecimiento de datos sin precedentes.En este episodio aprenderás cómo:Configurar el compose.yml de Vector en tu entorno Docker.Utilizar las Transforms de Vector para parsear los logs de Traefik.Integrar la base de datos GeoIP (GeoLite2-City.mmdb) para geolocalizar la IP de procedencia de cada petición.Enrutar los logs enriquecidos a la base de datos de destino.OpenObserve (O2) es la plataforma de observabilidad nativa de la nube que unifica logs, métricas y trazas en una única interfaz. Es la alternativa que he adoptado a soluciones como ElasticSearch y se ha convertido en una herramienta imprescindible en mi día a día.Es increíblemente sencillo de instalar y configurar (lo tienes funcionando en minutos).Es el lugar donde guardo y analizo toda la información de tráfico y rendimiento de mi infraestructura Docker y Traefik.Te proporciono el código compose.yml para que puedas desplegar esta base de datos en cuestión de minutos y empezar a interactuar con los datos geolocalizados que envía Vector.Además de la solución Vector/OpenObserve, te presento un interesante descubrimiento: el Traefik Log Dashboard. Este proyecto de código abierto (backend en Go, frontend en React) te permite tener información en tiempo real de los logs de Traefik con geolocalización incluida.Monitorización en tiempo real vía WebSocket.Soporte para trazas en tiempo real (OpenTelemetry OTLP).Analíticas completas de tiempos de respuesta, códigos de estado y tasas de solicitud.Más información y enlaces en las notas del episodio

¿Tu sistema Linux se siente lento, saturado y desorganizado? ¿Sospechas que hay archivos idénticos ocupando valiosos gigas sin que te des cuenta? ¡Es hora de ponerle fin a ese problema! En este episodio especial, nos sumergimos en una de las tareas de mantenimiento más subestimadas pero cruciales para cualquier usuario de Linux: la búsqueda y eliminación eficiente de archivos duplicados.Con el paso del tiempo, es increíble la cantidad de copias idénticas de fotos, vídeos, documentos o incluso archivos del sistema que se acumulan silenciosamente. Y aunque el almacenamiento sea más barato que nunca, estos "clones" pueden ralentizar tu equipo, complicar tus respaldos y, en definitiva, generar un caos innecesario.En este episodio descubrirás:La verdad detrás de los duplicados: Entenderás por qué son un problema real y cómo afectan el rendimiento y la organización de tu Linux, especialmente si trabajas con archivos pesados como RAW de fotografía o vídeos 4K.Herramientas de TERMINAL que marcan la diferencia: Te presentamos dos joyas escritas en Rust que están revolucionando la forma de encontrar duplicados:fclones: Una utilidad poderosa y flexible que no solo encuentra, sino que te permite agrupar, remover, enlazar e incluso desduplicar con funcionalidades avanzadas. Analizamos sus comandos básicos (group, remove, link, dedupe) y cómo usar la opción --dry-run para una eliminación segura. ¡No querrás perderte los detalles de su instalación y configuración para autocompletado!yadf (Yet Another Duplicate Finder): Otra herramienta ultra-rápida y fácil de usar, también desarrollada en Rust. Te desglosamos su sintaxis sencilla y te mostramos cómo filtrar tus búsquedas por tamaño, patrones o expresiones regulares.Soluciones GRÁFICAS para todos: Si prefieres la comodidad de una interfaz visual, no te dejamos atrás. Exploraremos czkawka (y su versión más ligera krokiet) y fclones-gui.czkawka / krokiet: Dos opciones de código abierto y multiplataforma, con un potente motor en Rust, que no solo buscan duplicados, sino también archivos grandes, vacíos y más, todo desde una interfaz intuitiva.fclones-gui: La interfaz gráfica simplificada de fclones, ideal si buscas una solución directa para las tareas más comunes de limpieza.¡La Prueba Definitiva! Benchmarks de rendimiento: ¿Cuál es la herramienta más rápida? ¿Cuál consume menos memoria? Te traemos los resultados de benchmarks comparativos con otras herramientas clásicas como rmlint, jdupes, fdupes, rdfind y dupeguru. ¡La eficiencia es clave y los datos no mienten!Nuestras recomendaciones y consejos prácticos: Después de analizar todas las opciones, compartiremos nuestra opinión sobre cuándo elegir una herramienta de terminal o una gráfica, y qué consideraciones tener en cuenta para que tu proceso de limpieza sea un éxito.¡Participa en la conversación!¿Cuál es tu herramienta favorita para buscar y eliminar duplicados? ¿Conoces alguna otra joya que debamos explorar? ¡Queremos oírte! Déjanos tus comentarios y sugerencias en nuestra comunidad de Telegram o en la sección de comentarios de este episodio en tu plataforma de podcast favorita.Recursos y enlaces del episodio:Más información y enlaces en las notas del episodio

Bienvenidos a atareao con Linux, el podcast de referencia para los entusiastas del OpenSource, Linux, Docker, Podman y todo lo relativo al mundo del self-hosted. Soy atareao, y en este episodio 733 de la Temporada 8, abordamos un problema que causa pesadillas a cualquier administrador de sistemas o desarrollador: la lentitud inexplicable en un servidor con Docker.Hace unas semanas, mi propio sitio web, atareao.es, empezó a arrastrarse. El diagnóstico fue sorprendente: Redis estaba consumiendo la mayoría de los recursos del servidor. Este susto me obligó a buscar una herramienta de monitorización de recursos que fuera ligera, sencilla de implementar y que no consumiera más de lo que monitoriza. Quería dejar de depender de un simple btop y tener un historial de consumo de CPU, memoria y red de mis contenedores.Si tú también gestionas un VPS, un servidor Linux o una Raspberry Pi con Docker y necesitas saber qué contenedor está comiendo tus recursos, este es tu episodio.En mi laboratorio de self-hosted, puse a prueba las soluciones más populares del ecosistema OpenSource para la observabilidad y la gestión de logs y métricas:Grafana + Prometheus + Docker Exporter: Es la opción estándar, pero la encontré demasiado enrevesada y, lo que es peor, consumía demasiados recursos. No cumplía mi requisito de ligereza.OpenObserve + Telegraf: OpenObserve es una gran herramienta que uso para otras tareas de observabilidad. La configuración del agente Telegraf para enviar métricas de Docker fue sencilla, y os muestro mi compose.yml en las notas del podcast. Sin embargo, la visualización gráfica de las métricas de contenedores no terminaba de convencerme.Finalmente, la combinación ganadora para la monitorización de contenedores Docker fue Beszel. Esta herramienta OpenSource es la solución que estaba buscando porque:Es Ligera: Su consumo de recursos es muy bajo, lo que la hace perfecta para entornos con limitaciones de hardware.Es Simple: Tienes todo en uno, desde la recolección de datos hasta las gráficas, y está lista para usarse sin gran configuración.Métricas Clave: Rastrea el historial de uso de CPU, memoria y red para cada contenedor Docker/Podman.Arquitectura Flexible: Su diseño de Hub y Agente permite monitorizar múltiples servidores Linux o VPS desde un único panel.Seguridad: Incluye soporte para OAuth / OIDC (yo lo uso con PocketID), permitiendo desactivar la autenticación por contraseña.Os explico cómo funciona su arquitectura, las métricas compatibles (incluyendo I/O de disco, temperatura y carga promedio del sistema host), y os doy el compose.yml completo para que podáis desplegar Beszel en vuestro entorno de self-hosted en menos de 5 minutos. La instalación es realmente sencilla y no tiene complejidad alguna.Dejar de preocuparte por el consumo de recursos y la lentitud de Docker es posible con la herramienta adecuada. Beszel ofrece el equilibrio perfecto entre potencia, ligereza y sencillez para que siempre sepas quién está consumiendo qué y cuánto en tu infraestructura Linux y Docker.Escucha este episodio para descubrir la combinación de software que te dará la observabilidad que necesitas para mantener tu sistema self-hosted optimizado.Si te ha gustado, no olvides suscribirte a atareao con Linux y compartir este episodio con otros entusiastas del OpenSource y el self-hosted. ¡Un saludo y hasta la próxima!Más información y enlaces en las notas del episodio

¿Estás Buscando el Escritorio Linux que No te Distrae, Pero que te Ofrece Potencia Ilimitada?El mundo del software libre acaba de recibir una de sus actualizaciones más importantes. En este episodio clave de atareao con Linux, analizamos el entorno de escritorio que se está consolidando como la opción definitiva para la productividad. Si eres de los que necesita un escritorio minimalista que sepa hacerse a un lado en tu flujo de trabajo diario, pero que te proporcione todas las herramientas de optimización y gestión de datos cuando las necesitas, esta actualización es para ti.Hemos analizado las notas de esta nueva versión y hemos comprobado cómo la migración a tecnologías más modernas (GTK4 y Libadwaita) ha resultado en la renovación completa de las aplicaciones centrales del sistema. Esto no es solo un cambio estético; es una mejora profunda en la eficiencia y en la experiencia de usuario. La filosofía es clara: herramientas sencillas, pero potentes que te permiten concentrarte en tu tarea principal.Te explicamos cómo esta nueva generación de herramientas esenciales de Linux simplifica tareas complejas como la anotación de PDF, la gestión de multimedia sin distracciones y el control avanzado de tu sistema, incluso de forma remota.Se ha reemplazado el viejo reproductor de vídeo por una aplicación totalmente rediseñada (Showtime). La clave es el diseño sin marcos que elimina cualquier distracción, mostrando los controles solo cuando los necesitas. Analizamos sus atajos de teclado esenciales (Ctrl+?), su diseño adaptativo y la capacidad de captura de pantalla directa, convirtiéndolo en el aliado perfecto para previsualizar tus vídeos y tutoriales en Linux.El antiguo visor de documentos ha sido sustituido por una herramienta mucho más ágil y potente (Papers). Si manejas manuales, guías o documentación técnica, esta es la joya de la corona: una función de anotación de PDF fluida y simplificada. Además, soporta la firma digital de documentos y ofrece modos de visualización como el dual y continuo para optimizar la lectura de archivos pesados (PDF, DjVu, TIFF).Repasamos la nueva aplicación para explorar imágenes. Su minimalismo esconde funciones sorprendentemente útiles para el día a día. Te permite inspeccionar metadatos y realizar operaciones de edición básicas como rotar, voltear o cambiar el tamaño sin necesidad de abrir software complejo. Es un ejemplo perfecto de potencia discreta.El navegador integrado ha mejorado drásticamente. Su gran baza es la capacidad de crear Aplicaciones Web independientes, transformando tus servicios online favoritos en apps de escritorio, algo que ha revolucionado el flujo de trabajo del autor. También destacamos sus funciones de seguridad: el bloqueador de anuncios y rastreadores y el Modo Lectura para eliminar distracciones y centrarte solo en el contenido.Calendar: Incluye la práctica función de exportar eventos a archivos .ics para facilitar la gestión de datos y las copias de seguridad.Este entorno de escritorio no olvida a los usuarios que administran sistemas:Escritorio Remoto Mejorado: Explico cómo las nuevas capacidades de conexión remota soportan ahora entrada Multitouch y permiten añadir Monitores Virtuales Extendidos, ideal para acceder a tu VPS o Raspberry Pi con interfaz gráfica.El Tip de Terminal: Como siempre, un comando esencial para el control total: el gsetting que permite habilitar las opciones de Reinicio y Apagado directamente desde la pantalla de bloqueo.Más información y enlaces en las notas del episodio

Si eres usuario de Linux, seguramente find y grep son herramientas que utilizas a diario, casi por inercia. Son pilares del sistema, sí, pero... ¿y si te dijera que hay una forma mucho más eficiente, más rápida y, sobre todo, mucho más simple de buscar archivos y texto en tu sistema?En este episodio, te guiare por un camino de modernización de tu terminal que te ahorrará horas y frustraciones. Olvídate de esas sintaxis complejas y de los tiempos de espera interminables cuando buscas en grandes volúmenes de código o en directorios llenos de archivos. Ha llegado el momento de dar la bienvenida a dos herramientas modernas, escritas en el potente lenguaje Rust, que están redefiniendo la productividad en la línea de comandos: fd y ripgrep.Todos hemos estado allí: tratando de recordar la combinación exacta de opciones para find (-name, -iname, -path, -exec, etc.), o lidiando con la lentitud de grep -r en un proyecto con miles de archivos. Estas herramientas clásicas, aunque potentes, nacieron en una era diferente del software. No ignoran por defecto directorios de Git, no colorean la salida para hacerla más legible, y su enfoque en la flexibilidad a menudo se traduce en complejidad para el usuario medio.Pero no te preocupes, ¡tenemos la solución! fd se presenta como el reemplazo definitivo para find. Es increíblemente rápido, tiene una sintaxis que parece leer la mente y, por defecto, sabe qué ignorar (¡adiós a los resultados de .git o node_modules en tus búsquedas!). Por otro lado, ripgrep (rg) es el nuevo rey de la búsqueda de texto, dejando a grep en el polvo en términos de velocidad y facilidad de uso. Incorpora Smart Case, colorea las coincidencias y es un verdadero bólido a la hora de rastrear patrones de texto, incluso en archivos enormes.En los próximos minutos, desglosaremos todo lo que necesitas saber para empezar a usar fd y ripgrep hoy mismo:Introducción al Problema: Exploraremos las razones por las que find y grep pueden ralentizar tu trabajo y por qué es crucial adoptar alternativas modernas.Presentación de fd: Descubriremos cómo esta joya escrita en Rust simplifica la búsqueda de archivos. Hablaremos de su sintaxis intuitiva, su capacidad para ignorar archivos ocultos y directorios .git automáticamente, y cómo su salida coloreada hace que encontrar lo que buscas sea un placer visual.Presentación de ripgrep (rg): Sumérgete en el mundo de la búsqueda de texto ultrarrápida. Conocerás por qué ripgrep es tan eficiente, su soporte para expresiones regulares (PCRE2), el inteligente Smart Case que te ahorra pulsaciones y cómo su salida te da contexto inmediato.Instalación Sencilla: Te proporcionaremos los comandos exactos para instalar fd y ripgrep en las distribuciones más populares, como Ubuntu (y derivados de Debian) y Arch Linux (incluido Manjaro). ¡Estarás operativo en minutos!Cinco Usos Básicos (Comparativa find/grep vs fd/ripgrep):Buscar un archivo por nombre.Localizar archivos ocultos.Buscar una cadena de texto recursivamente.Realizar búsquedas ignorando mayúsculas/minúsculas.Filtrar por tipo de archivo.Cinco Trucos Imprescindibles (Llevando tu productividad al siguiente nivel):El "Santo Grial"Encuentra y ejecutaBúsqueda inversa de textoFiltrado por tipo de archivo en ripgrepBúsquedas exactas con fdMás información y enlaces en las notas del episodio

¿Estás cansado de reconstruir una imagen de Docker cada vez que necesitas cambiar un simple archivo de configuración? Este problema, que consume tiempo y recursos, es más común de lo que piensas. En este episodio de atareao con Linux, te traigo la solución definitiva para optimizar tu flujo de trabajo: las configuraciones de Docker (Docker Configs).Las configuraciones son una herramienta fundamental para la gestión de contenedores en entornos de Docker Compose y Docker Swarm. A diferencia de los volúmenes, que se centran en datos persistentes, las configs te permiten desacoplar los archivos de configuración de tus aplicaciones de la propia imagen de Docker. Esto significa que puedes crear imágenes genéricas y altamente portables, y luego adaptar su comportamiento a cada entorno (desarrollo, pruebas, producción) de manera sencilla y centralizada.En este tutorial práctico, exploraremos todo lo que necesitas saber sobre las configs:¿Qué son las configuraciones de Docker y por qué son cruciales para la productividad? Te explico su propósito y cómo su uso puede acelerar tu ciclo de desarrollo y despliegue.Diferencias clave con otras herramientas de gestión de datos de Docker. Te ayudo a entender cuándo usar configs en lugar de volúmenes o secrets para garantizar la seguridad y la eficiencia en tus proyectos.Un ejemplo práctico y detallado. Nos pondremos manos a la obra para configurar un contenedor de Nginx usando configs. Aprenderás a declarar la configuración en tu archivo docker-compose.yml, a montarla en la ruta correcta del contenedor con el parámetro target, y a establecer los permisos de acceso (mode), como el 0644 que te comenté.Este enfoque de "problema-solución" te permitirá tomar el control total sobre tus despliegues. Olvídate de la tediosa tarea de reconstruir imágenes y adopta una práctica de software de código abierto más robusta y profesional.El conocimiento que adquirirás en este episodio es aplicable a un sinfín de proyectos, ya sea que estés configurando un proxy inverso con Traefik, una base de datos o un servicio de sincronización como Syncthing en una Raspberry Pi o un VPS. Con esta herramienta, podrás hacer "cualquier cosa que quieras hacer con Linux" de forma más inteligente y eficiente.¡Prepárate para llevar tu gestión de Docker al siguiente nivel y optimizar tus sistemas como nunca antes!Más información y enlaces en las notas del episodio

¡Transforma tu Terminal Linux en una Máquina de Productividad! Domina fish shell con este Tutorial Práctico¿Te preguntas cómo los expertos en Linux logran trabajar tan rápido en la terminal? ¿Estás cansado de escribir los mismos comandos largos una y otra vez? Si la respuesta es sí, este episodio de Atareao con Linux es para ti. En él, vamos a desvelar uno de los secretos mejor guardados para la automatización y la eficiencia: el uso de fish shell. A diferencia de otras shells como Bash o Zsh, fish se diseñó desde cero pensando en la usabilidad y la productividad, y hoy te voy a enseñar por qué sus abreviaciones y funciones son una auténtica revolución para tu flujo de trabajo.Este no es solo un tutorial teórico. Te guiaré paso a paso para que puedas implementar estas herramientas en tu sistema Linux de inmediato. Te mostraré cómo dejar de depender de los alias tradicionales y aprovechar el poder de las abreviaciones (abbr) que se expanden en tiempo real, dándote un control sin precedentes antes de ejecutar un comando. Esto te permitirá evitar errores comunes y, sobre todo, ganar velocidad.Pero fish no se queda ahí. También te enseñaré a crear funciones personalizadas para automatizar tareas más complejas, scripts que puedes ejecutar con una simple palabra, sin importar si necesitas gestionar tus servicios con Docker, optimizar la copia de archivos con Syncthing, o simplemente simplificar tareas cotidianas de administración del sistema. Cada segundo que ahorras en la terminal se traduce en más tiempo para innovar y crear.¿Qué te llevas de este episodio de Atareao con Linux?Aprende la diferencia clave entre abbr y alias, y por qué las abreviaciones de fish te harán más productivo al instante.Descubre cómo crear y gestionar tus propios atajos de teclado para cualquier comando, desde operaciones de Git hasta el despliegue de contenedores.Dominas el arte de las funciones en fish para automatizar scripts y lógicas complejas de forma sencilla.Obtén consejos prácticos sobre cómo organizar tu configuración en ~/.config/fish/ para mantener un entorno de trabajo limpio y eficiente.Entiende la filosofía de fish y por qué es una de las mejores shells de código abierto para cualquier entusiasta de GNU/Linux.Este episodio está pensado para cualquier persona que quiera mejorar su productividad en la línea de comandos, ya seas un desarrollador de software que usa Neovim o Rust, un sysadmin que gestiona servidores, o un usuario que simplemente quiere sacar el máximo provecho a su escritorio GNOME. Si te gusta la programación, el scripting, el software libre y la automatización, te garantizo que este contenido resonará contigo.No dejes pasar esta oportunidad de darle un impulso a tu carrera y a tus proyectos personales. La terminal es tu herramienta más poderosa; aprende a usarla como un verdadero profesional.¡Sigue el podcast Atareao con Linux para no perderte ningún truco! Cada semana, te traemos soluciones prácticas y tutoriales detallados para que domines Linux de una vez por todas. Si este episodio te ha parecido útil, deja una valoración positiva para que más personas puedan descubrir este conocimiento.Más información y enlaces en las notas del episodio

En este nuevo episodio de atareao con Linux, nos sumergimos en el fascinante mundo de los gestores de archivos para la terminal. Aunque ya he hablado de mi favorito, Yazi, hoy te presento uno que me ha volado la cabeza: Superfile.A menudo, pensamos que la productividad se consigue con interfaces gráficas complejas, pero este gestor de archivos minimalista y ultrarrápido, desarrollado en Go, demuestra todo lo contrario. Su TUI (Text-based User Interface) es tan sencillo y eficiente que te hará replantearte tu forma de trabajar con Linux, ya sea en un VPS, en tu Raspberry Pi o en cualquier servidor.Descubriremos por qué Superfile es una alternativa tan interesante a otras herramientas y exploraremos sus funcionalidades clave, sus atajos de teclado inspirados en Vi y los distintos modos que ofrece para optimizar cada tarea. Te sorprenderá lo fácil que es copiar, mover, renombrar y eliminar archivos y directorios con apenas unos pocos comandos.Acompáñame en este análisis y descubre si esta "locura" de gestor de archivos puede convertirse en tu nueva herramienta favorita. Si buscas una solución práctica, ligera y potente para gestionar tus archivos, este es tu episodio.Más información y enlaces en las notas del episodio

Descripción SEO para el episodio 727 de "atareao con Linux":En este episodio, abordo un problema común: la frustración al crear documentos importantes como tesis, proyectos o informes extensos utilizando herramientas tradicionales como Microsoft Word. Para ello, te traigo una solución innovadora y mucho más eficiente: Typst.Typst no es solo otra alternativa, es un lenguaje de marcado que combina la sencillez de Markdown con la potencia de LaTeX. Esto te permite centrarte únicamente en el contenido de tu documento, sin preocuparte por el formato. Una vez que eliges o creas una plantilla, la estética del documento, la tipografía y el diseño se manejan automáticamente.El episodio explora a fondo por qué Typst es la herramienta que estabas buscando: su sintaxis es increíblemente fácil de aprender y usar, la compilación a PDF es muchísimo más rápida que con LaTeX y, al ser un lenguaje de programación, permite automatizar tareas y simplificar tu trabajo.Para ilustrar su potencial, se presentan cuatro ejemplos prácticos:Un álbum de fotos: Demuestra cómo manejar fácilmente documentos con muchas imágenes.Un libro: Muestra la plantilla que Lorenzo usa para escribir sus libros sobre Bash y Docker, gestionando documentos largos de manera eficiente.Un CV: Utilizando una plantilla del Universo de Typst, se demuestra la capacidad para crear documentos con una presentación impecable.Un paper científico: Se destaca su capacidad para manejar documentos complejos con fórmulas y gráficos, igualando a LaTeX pero de forma más simple.Además, el episodio ofrece tres opciones para empezar a usar Typst: la versión en línea para trabajar en equipo, el editor gráfico Katvan y la integración con editores de código como Visual Studio Code y, la favorita de Lorenzo, Neovim, con la extensión Tinymist y Typst-Preview.Si eres un estudiante, un profesional o simplemente alguien que busca una forma más inteligente y productiva de crear documentos, este episodio es para ti. Descubre cómo dejar atrás las limitaciones de Word y adoptar una solución que te ahorrará tiempo y te permitirá enfocarte en lo que realmente importa: tu contenido.Más información y enlaces en las notas del episodio

Si la temporada pasada fue un poco caótica y no se concretaron muchos de los planes, no fue en absoluto un año perdido. De hecho, fue muy productivo desde el punto de vista de la programación. Abordé temas fascinantes como Obsidian (aunque al final volví a mi querido Neovim), la shell Fish, cómo mejorar tus copias de seguridad con Restic en Android, o la exploración de un gestor de ventanas diferente como Niri. A pesar de los avances, eché de menos lo que más me apasiona: los tutoriales prácticos y detallados que nos permiten profundizar en cada tema.Este es el espíritu que quiero recuperar en esta nueva temporada, pero sin caer en la ambición desmedida. Mi objetivo es ofreceros soluciones concretas y métodos que podáis aplicar para mejorar vuestra productividad y optimizar vuestros sistemas Linux.Si eres de los que, como yo, valora tener el control total sobre tus datos y servicios, este pilar te encantará. Hace casi tres años que publiqué mi tutorial de autoalojamiento, y desde entonces, muchas cosas han cambiado. Por eso, mi plan es renovar ese tutorial desde cero, partiendo de Traefik, mi proxy inverso de cabecera. A lo largo de los episodios, configuraremos Traefik desde cero, incluyendo extensiones para mejorar su funcionamiento, y le iremos añadiendo todos los servicios que utilizo en mi día a día, como Docker y más.Hace años que no me meto de lleno en el desarrollo para Android, pero el uso masivo de dispositivos móviles y la evolución de la plataforma me han hecho reconsiderarlo. Mi idea es implementar al menos tres aplicaciones prácticas y funcionales, todas ellas conectadas a un backend robusto en Rust:Un gestor de redes sociales: Automatizaré la publicación de contenidos, pero esta vez con un frontend en Android que te permitirá monitorizar múltiples feeds y configurar la publicación con total libertad.Un gestor Docker: Si alguna vez soñaste con gestionar los contenedores de tu servidor desde el móvil, este proyecto es para ti. Crearé una aplicación Android que, a través de una API en el servidor, te permitirá gestionar todos tus contenedores de forma sencilla y en movilidad.Gestión del Blog y Podcast: Aunque es una tarea muy ambiciosa a largo plazo, quiero empezar a dar los primeros pasos para dejar WordPress atrás y poder gestionar todo el contenido del blog y del podcast desde una aplicación móvil.Finalmente, volveré a un tema recurrente y muy demandado en el canal: las configuraciones. Desgranaré poco a poco la configuración de mis herramientas clave. Veremos cómo tengo configurados Niri, Neovim y mi escritorio GNOME, con tutoriales específicos que te ayudarán a personalizar y optimizar tu propio entorno de trabajo.De nuevo, puede que me haya ido un poco de las manos con las promesas de la nueva temporada, pero como siempre digo, si no nos planteamos metas, es difícil que lleguemos a nada. Así que, esto es lo que propongo.Espero que estos nuevos temas os resulten tan interesantes como a mí. Os animo a seguirme en esta nueva aventura y, como siempre, no dudes en escribirme para proponerme cualquier tema. ¡Nos escuchamos la próxima semana en "atareao con Linux"!¿Te ha gustado la propuesta para esta temporada? ¿Qué proyecto te interesa más? ¡Déjame un comentario y dime qué te gustaría que tratara en profundidad!Más información y enlaces en las notas del episodio

En este episodio de "atareao con Linux", me sumerjo en uno de mis temas favoritos: la optimización del flujo de trabajo en Neovim. Para los que me seguís, sabéis que la búsqueda de la productividad en Linux es una misión constante. Y en esa búsqueda, la elección de los plugins adecuados es fundamental. En esta ocasión, he probado cinco extensiones que han cambiado radicalmente mi forma de trabajar y que quiero compartir contigo.El punto central de este episodio es una declaración audaz: he encontrado un sustituto para nvim-cmp. Durante mucho tiempo, este ha sido el estándar de oro para el autocompletado en Neovim, pero a veces, la complejidad de su configuración y el consumo de recursos puede ser un obstáculo. Mi alternativa, saghen/blink.cmp, es la solución. Este plugin se centra en la velocidad y la sencillez. Es un sistema de autocompletado minimalista que ofrece sugerencias de forma casi instantánea, liberándote para que te concentres en el código. Si buscas una experiencia más fluida y una configuración más limpia, este plugin es una auténtica revelación que no te decepcionará.Pero mi optimización no se detiene ahí. También he integrado otras cuatro herramientas esenciales que resuelven problemas comunes en el día a día de cualquier desarrollador. Primero, el plugin Isrothy/neominimap.nvim me ha liberado de la frustración de navegar por archivos de código interminables. Ahora, con una vista visual de todo el documento, puedo saltar a cualquier sección con un simple vistazo, mejorando la navegación y la comprensión del proyecto.Y por último, he transformado Neovim en mi propio sistema de notas personal con lervag/wiki.vim. Este plugin me permite crear, enlazar y organizar mis notas en formato de texto plano, construyendo una base de conocimiento interconectada a la que puedo acceder y modificar en cualquier momento. Es ideal para documentar proyectos, guardar snippets de código o simplemente organizar mis ideas para futuros episodios.En resumen, este episodio es una guía práctica para que tú también puedas revolucionar tu uso de Neovim. Te muestro cómo estos cinco plugins de software libre pueden resolver problemas específicos y llevar tu productividad al siguiente nivel.Escúchalo ahora y descubre las herramientas que te harán más eficiente en tu entorno de desarrollo.Más información y enlaces en las notas del episodio

En este nuevo episodio de "atareao con Linux", me sumerjo en uno de mis temas favoritos: cómo optimizar nuestras herramientas de trabajo para ser más productivos. Si eres de los que vive en el terminal, con los scripts de Bash, los contenedores de Docker o los proyectos de Rust y Python, sabrás que un navegador eficiente es tan importante como un buen editor de código. Por eso, en este capítulo, vamos a vitaminar Firefox.Dejaremos atrás la experiencia de usuario predeterminada y exploraremos una configuración que realmente eleva tu productividad. Hablaremos de la solución a uno de los mayores dolores de cabeza: la gestión de pestañas. ¿Te has encontrado alguna vez con una docena de pestañas abiertas, sin poder distinguir una de la otra? La solución es simple y visualmente espectacular: pestañas verticales. Te contaré cómo implementarlas con extensiones como Sidebery y cómo usar atajos de teclado para moverte entre ellas con la velocidad de un rayo.Pero no nos quedaremos ahí. Te mostraré cómo transformar la barra lateral de Firefox en un panel de control personal. Descubrirás cómo integrar un chatbot de inteligencia artificial directamente en tu navegador, lo que te permitirá hacer preguntas, revisar código o generar texto sin perder el foco en la tarea principal. Además, aprenderás a tener a mano tu historial, tus marcadores y las pestañas abiertas en otros dispositivos, todo en un solo lugar.Para redondear la experiencia, te presentaré dos extensiones que considero imprescindibles en mi flujo de trabajo:Page Sidebar: Si necesitas comparar dos páginas web, revisar la documentación de una API o simplemente tener dos vistas en paralelo, esta extensión es la respuesta. Te permite abrir cualquier URL en la barra lateral, convirtiendo tu navegador en un espacio de trabajo de dos paneles.Tabliss: La primera impresión cuenta, y la página de nueva pestaña de Firefox no tiene por qué ser aburrida. Con Tabliss, podrás personalizarla con fondos espectaculares, un reloj minimalista y tus enlaces más importantes, convirtiendo cada nueva pestaña en una fuente de inspiración y orden.Este episodio es una guía práctica para cualquier entusiasta de Linux, el software libre, la programación o el self-hosted que quiera llevar su productividad al siguiente nivel. Hablaremos de cómo estas pequeñas configuraciones pueden marcar una gran diferencia en tu día a día, permitiéndote ser más eficiente y disfrutar más del proceso de trabajo.Recuerda que todos los enlaces y recursos mencionados en este episodio están disponibles en las notas del programa en mi blog, atareao.es.Más información y enlaces en las notas del episodio

¿Aburrido de Trello y de los servicios en la nube? En este episodio, te presento Tasks.md, una alternativa de código abierto para gestionar tus tareas con una metodología Kanban. Descubre por qué esta herramienta es la solución perfecta si buscas simplicidad, control sobre tus datos y una integración perfecta con tu flujo de trabajo basado en Markdown.Aprende a instalar Tasks.md fácilmente con Docker en tu propia Raspberry Pi o VPS. Exploraremos las ventajas de tener un Kanban autoalojado, las sinergias con otras herramientas como Neovim y Obsidian, y cómo esta solución te puede ayudar a ser más productivo sin las distracciones de las plataformas tradicionales. Si valoras el software de código abierto y la autosuficiencia, este episodio es para ti.Más información y enlaces en las notas del episodio