FLASH DIARIO de El Siglo 21 es Hoy

Follow FLASH DIARIO de El Siglo 21 es Hoy
Share on
Copy link to clipboard

Flash Diario, de El Siglo 21 es Hoy. Es el pódcast informativo que te mantiene al día con las noticias más recientes y más relevantes del siglo 21. ¡En menos de 5 minutos! Y es un producto informativo de ElSiglo21esHoy.com Cada episodio de Flash Diario te ofrece una dosis diaria de actualidad en formato breve y conciso, presentando las noticias más importantes en diferentes ámbitos como la tecnología, la ciencia, la cultura y la sociedad. Con Flash Diario no tienes que preocuparte por perderte ninguna novedad o avance importante en tu día a día. En menos de 5 minutos te ofrecemos la información más relevante de manera clara y precisa, para que puedas estar al tanto de lo que sucede en el mundo sin perder tiempo ni detalles. Flash Diario es el compañero perfecto para las personas que quieren estar al tanto de las últimas noticias pero no tienen tiempo para seguir programas más largos y detallados. Con Flash Diario estarás siempre actualizado, informado y preparado para cualquier conversación o situación que se presente. ¡Suscríbete ahora y no te pierdas ni un solo flash informativo! Suscríbete gratis en: ➜ YouTube: https://bit.ly/FlashDiario ➜ Spotify: https://spoti.fi/3MRBhwH ➜ Apple Podcasts: https://apple.co/3BR7AWe This show is part of the Spreaker Prime Network, if you are interested in advertising on this podcast, contact us at https://www.spreaker.com/show/5835407/advertisement

@LocutorCo

Donate to FLASH DIARIO de El Siglo 21 es Hoy


    • Feb 26, 2026 LATEST EPISODE
    • weekdays NEW EPISODES
    • 5m AVG DURATION
    • 793 EPISODES


    Search for episodes from FLASH DIARIO de El Siglo 21 es Hoy with a specific topic:

    Latest episodes from FLASH DIARIO de El Siglo 21 es Hoy

    Samsung Galaxy S26 Ultra - Privacidad real o puro marketing

    Play Episode Listen Later Feb 26, 2026 18:18 Transcription Available


    Samsung Galaxy S26 Ultra estrena pantalla antiespías y pone en aprietos a la inteligencia artificialPor Félix Riaño @LocutorCoSamsung presentó la nueva serie Galaxy S26 y, aunque la marca insiste en que estamos ante la era del “teléfono con IA”, la verdadera conversación no gira alrededor de asistentes virtuales. El foco está en una innovación de hardware que, por ahora, solo tiene el modelo más caro: una pantalla con privacidad integrada que oscurece el contenido cuando alguien intenta mirar desde un ángulo lateral.La familia está compuesta por Galaxy S26, S26 Plus y Galaxy S26 Ultra. A primera vista, el diseño cambia muy poco frente a la generación anterior. Pantallas AMOLED de hasta 120 hercios, resistencia al agua IP68 y cámaras de alta resolución siguen presentes. Pero hay diferencias que conviene analizar con calma, sobre todo si alguien está pensando en cambiar de teléfono este año.La función que realmente diferencia al UltraEl Galaxy S26 Ultra mantiene una pantalla de 6,9 pulgadas con resolución de 3.120 x 1.440 píxeles. Integra el procesador Snapdragon 8 Elite Gen 5 en varios mercados y promete mejoras de rendimiento cercanas al 19 % en CPU y 39 % en tareas de inteligencia artificial frente al modelo anterior.Sin embargo, el elemento que más llama la atención es el llamado “Privacy Display”. Se trata de una tecnología integrada en el panel OLED que limita el ángulo de visión. Cuando se activa, la pantalla se ve oscura o casi negra desde los lados, arriba o abajo. Solo quien está frente al dispositivo puede leer con claridad lo que aparece en pantalla.A diferencia de los protectores físicos de privacidad, que reducen el brillo todo el tiempo, esta solución puede activarse o desactivarse desde los ajustes rápidos. Además, se puede configurar para que funcione únicamente en aplicaciones específicas, en notificaciones o cuando el usuario introduce contraseñas.Según Samsung, el desarrollo de esta tecnología tomó cinco años. Para muchos analistas, es el rasgo que realmente diferencia al Ultra en una generación considerada continuista. A diferencia de los protectores físicos de privacidad, que reducen el brillo todo el tiempo, esta solución puede activarse o desactivarse desde los ajustes rápidos. Además, se puede configurar para que funcione únicamente en aplicaciones específicas, en notificaciones o cuando el usuario introduce contraseñas.Según Samsung, el desarrollo de esta tecnología tomó cinco años. Para muchos analistas, es el rasgo que realmente diferencia al Ultra en una generación considerada continuista.Mucha inteligencia artificial, pero ¿qué es realmente nuevo?Samsung centra buena parte de su discurso en la inteligencia artificial. La serie Galaxy S26 incluye herramientas como edición de fotos mediante texto, borrado de ruido en videos incluso en aplicaciones de terceros, organización automática de capturas de pantalla y filtros de llamadas con resúmenes generados por IA.También se refuerza el papel de Bixby, el asistente propio de la marca, que ahora puede entender órdenes más naturales para activar ajustes del sistema sin que el usuario conozca el nombre exacto de cada función.No obstante, muchas de estas mejoras dependen de software y de alianzas con servicios externos, como Gemini de Google o modelos de lenguaje de terceros. Esto abre la puerta a que algunas funciones puedan llegar a modelos anteriores mediante actualizaciones.En otras palabras, no todas las novedades están atadas al nuevo hardware.Precio al alza y almacenamiento base más altoEn Estados Unidos, el Galaxy S26 base arranca en 899,99 dólares, frente a los 799,99 dólares del modelo anterior. El S26 Plus sube a 1.099,99 dólares. El Galaxy S26 Ultra se mantiene en 1.299,99 dólares.En el Reino Unido también se registran aumentos. Samsung atribuye parte del incremento a la presión en el mercado global de memoria, impulsada por la demanda de centros de datos dedicados a inteligencia artificial.Una decisión relevante es la eliminación de la versión de 128 GB. Ahora el almacenamiento base parte de 256 GB en toda la serie. En el caso del Ultra, se ofrecen versiones de 256 GB, 512 GB y 1 TB.Cámaras y batería: ajustes más que revoluciónEl Galaxy S26 Ultra conserva el sensor principal de 200 megapíxeles, acompañado de lentes adicionales que permiten zoom óptico y grabación en 8K a 30 cuadros por segundo. Se anuncian mejoras en apertura y procesamiento para capturar más luz en escenas nocturnas.La batería del Ultra sigue siendo de 5.000 miliamperios hora. La marca promete llegar al 75 % de carga en aproximadamente 30 minutos con un cargador de 60 vatios. El modelo base aumenta su batería a 4.300 miliamperios hora, mientras el Plus se mantiene en 4.900.En comparación con el Galaxy S25, las mejoras en batería y cámara son graduales. No hay cambios drásticos en hardware, sino ajustes en eficiencia y procesamiento.¿Vale la pena cambiar?Para quienes tienen un Galaxy S25, el salto parece limitado. El rendimiento será algo mejor, la batería del modelo base crece ligeramente y la inteligencia artificial es más profunda, pero la experiencia general se mantiene muy cercana.En cambio, quienes usan modelos más antiguos podrían notar un cambio más amplio, especialmente si optan por el Ultra.La pantalla con privacidad integrada es, por ahora, la innovación más concreta y visible. En un mercado donde muchos avances se apoyan en software replicable, esta característica representa una diferencia difícil de copiar mediante una simple actualización.La pregunta final es sencilla: ¿la privacidad en pantalla justifica pagar por el modelo más costoso? Para quienes trabajan con información sensible en espacios públicos, puede ser un argumento sólido. Para otros usuarios, la decisión dependerá más del presupuesto que de la tecnología.BibliografíaCNEThttps://www.cnet.com/tech/mobile/this-one-killer-feature-sets-the-samsung-galaxy-s26-ultra-apart-from-all-other-phones/The Independenthttps://www.independent.co.uk/extras/indybest/gadgets-tech/phones-accessories/samsung-galaxy-s26-ultra-price-pre-order-b2927437.htmlMashablehttps://mashable.com/article/every-samsung-galaxy-unpacked-announcement-s26TechRadarhttps://www.techradar.com/phones/samsung-galaxy-phones/samsung-galaxy-s26-ultra-hands-on-impressionsEngadgethttps://www.engadget.com/mobile/smartphones/samsung-galaxy-s26-vs-galaxy-s25-whats-changed-and-which-one-should-you-buy-181515367.htmlForbeshttps://www.forbes.com/sites/jaymcgregor/2026/02/25/samsung-galaxy-s26-price-specs-features-camera-release-date/The Vergehttps://www.theverge.com/tech/884239/samsung-galaxy-s26-plus-price-specs-geminiWiredhttps://www.wired.com/story/samsung-galaxy-s26-series-galaxy-unpacked/Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    El misterioso avión espacial chino vuelve al espacio

    Play Episode Listen Later Feb 25, 2026 10:27 Transcription Available


    Dragón divino en órbitaAvión espacial chino Shenlong inicia cuarta misión secreta en órbita baja terrestrePor Félix Riaño @LocutorCoChina lanzó el avión espacial reutilizable Shenlong a órbita baja en su cuarta misión experimental.China volvió a activar uno de sus proyectos más reservados en el espacio. El 6 de febrero de 2026 despegó desde el Centro de Lanzamiento de Satélites de Jiuquan, en el desierto del Gobi, el avión espacial Shenlong, cuyo nombre significa “Dragón Divino”. Es su cuarta misión orbital. Las anteriores comenzaron en septiembre de 2020, mayo de 2023 y septiembre de 2024. Duraron dos días, 276 días y 266 días respectivamente.Esta vez, las autoridades confirmaron el lanzamiento, pero no explicaron qué experimentos realiza en órbita baja terrestre, es decir, a unos 350 kilómetros de altura. Esa distancia es similar a la de la Estación Espacial Internacional. Sabemos que Shenlong es reutilizable y que puede permanecer meses alrededor de la Tierra. Pero la gran pregunta es sencilla: ¿qué está haciendo realmente allá arriba?Avanza en silencio y genera preguntasShenlong viajó al espacio a bordo de un cohete Larga Marcha 2F. Este mismo tipo de cohete lanzó en 2011 el laboratorio Tiangong-1. El vehículo quedó en órbita baja terrestre y comenzó una misión cuyo tiempo total aún no ha sido revelado.En 2024, el observador austríaco Felix Schöfbänker captó imágenes del vehículo con un telescopio de 35 centímetros de diámetro. Las fotografías mostraban estructuras desplegadas que podrían ser paneles solares o antenas. Las estimaciones indican que Shenlong mide cerca de 10 metros de largo. Es un tamaño parecido al del avión espacial estadounidense X-37B, que mide 8,8 metros.Según explicó Space.com, el gobierno chino define la misión como una prueba de tecnologías reutilizables para facilitar viajes espaciales de ida y vuelta más económicos en el futuro.El punto que genera debate es otro. En sus tres misiones anteriores, Shenlong liberó uno o más objetos en órbita. Esto no se supo por comunicados oficiales, sino por el seguimiento del ejército de Estados Unidos, empresas privadas de vigilancia espacial y astrónomos aficionados.Algunos de esos objetos demostraron capacidad de transmisión. Otros mostraron propulsión independiente. Además, Shenlong realizó maniobras de acercamiento y acoplamiento con esos objetos. Estas acciones se conocen como operaciones de encuentro y proximidad, o RPO.Las RPO permiten acercarse a un satélite para inspeccionarlo, repararlo o retirarlo. También podrían utilizarse para interferir con equipos de otros países. Esa doble posibilidad genera inquietud.De acuerdo con la fundación Secure World Foundation, citada por Economic Times, este tipo de maniobras tiene aplicaciones civiles y estratégicas. El problema es que la falta de información alimenta sospechas.Por ahora, no hay evidencia pública de que Shenlong esté diseñado como arma directa. Su tamaño limita la carga útil. Su bahía interna es reducida, similar al espacio de carga de una camioneta. Además, cuando reingresa a la atmósfera lo hace planeando a unos 321 kilómetros por hora. Esa velocidad es muy inferior a la de un proyectil balístico.Expertos consideran más probable que China esté probando sistemas autónomos, gestión térmica para misiones largas, generación de energía en órbita y técnicas avanzadas de encuentro con satélites.El contexto global también influye. Estados Unidos mantiene activo su propio avión espacial, el X-37B, que ya acumula ocho misiones desde 2010. Ambos programas comparten discreción.Según explicó PrimeTimer, la competencia tecnológica en órbita es cada vez más intensa. Las capacidades de permanecer meses en el espacio y maniobrar con precisión se han convertido en habilidades muy valoradas.Más transparencia podría reducir tensiones. Cuando un país no explica sus objetivos, otros imaginan escenarios extremos.El concepto de avión espacial reutilizable busca reducir costos frente a los antiguos transbordadores espaciales, que requerían enormes equipos y presupuestos. Hoy los vehículos son más pequeños, automáticos y diseñados para múltiples vuelos.Shenlong ya demostró permanencias superiores a ocho meses. Eso implica avances en protección térmica, administración de energía y resistencia de materiales.Las operaciones RPO también están siendo desarrolladas por otras potencias. Con miles de satélites en órbita baja, la capacidad de maniobrar con precisión ayuda a evitar colisiones y gestionar basura espacial.Al mismo tiempo, el espacio se ha convertido en un escenario de competencia estratégica. China avanza en su programa lunar con planes de llevar astronautas antes de 2030. Estados Unidos impulsa el programa Artemis. En ese contexto, cada avance tecnológico es observado con atención.El reto será establecer reglas internacionales que mantengan el uso del espacio como un entorno seguro y estable.China lanzó el avión espacial Shenlong en su cuarta misión. Sabemos que prueba tecnología reutilizable y maniobras avanzadas en órbita. Lo que no sabemos es el detalle de sus experimentos. ¿Te genera tranquilidad o inquietud este nivel de reserva? Cuéntame en comentarios y sigue el pódcast en Spotify: Flash Diario

    Agente autónomo fuera de control

    Play Episode Listen Later Feb 24, 2026 11:53 Transcription Available


    Una directora de alineación en Meta conectó un agente de inteligencia artificial a su correo. El sistema empezó a borrar mensajes sin permiso y ella tuvo que correr físicamente a su computador para detenerlo.Por Félix Riaño @LocutorCoAgente OpenClaw casi elimina correos de directora de seguridad en Meta por error humanoLa escena parece de película, pero pasó en la vida real. Summer Yue, directora de seguridad y alineación de inteligencia artificial en Meta, conectó a su bandeja de Gmail un agente autónomo llamado OpenClaw. Su idea era simple: que el sistema revisara su correo, sugiriera qué archivar y esperara confirmación antes de borrar nada.Lo que ocurrió fue distinto. El agente empezó a eliminar mensajes sin pedir autorización. Desde su teléfono, Yue intentó detenerlo escribiendo “no hagas eso” y “STOP OPENCLAW”. No funcionó. Según contó en la red social X, tuvo que correr hasta su Mac mini “como si estuviera desactivando una bomba” para matar los procesos manualmente. ¿Cómo puede pasar algo así justo a alguien que trabaja en que la IA sea segura?Pero la experta también fallóUna lección incómoda sobre confianza tecnológica.Summer Yue trabaja en el laboratorio de “superinteligencia” de Meta. Su rol es estudiar cómo lograr que los sistemas de inteligencia artificial sigan instrucciones humanas y no actúen en contra de nuestros intereses.El agente que utilizó, OpenClaw, es un proyecto de código abierto creado por Peter Steinberger. Es popular porque puede operar 24 horas al día, conectarse a servicios reales y ejecutar tareas sin intervención constante. A diferencia de otros asistentes, no necesita una aprobación manual en cada paso. Eso lo hace atractivo para quienes quieren automatizar tareas repetitivas.Yue ya lo había probado en una bandeja de prueba, con correos poco relevantes. Allí había funcionado bien durante semanas. Ganó confianza. Entonces decidió conectarlo a su bandeja principal, mucho más grande y con información importante. Le indicó que revisara y sugiriera, pero que no actuara sin confirmación. El problema ocurrió cuando el sistema realizó un proceso de “compactación” interna para manejar la gran cantidad de datos. Durante ese proceso, el agente perdió la instrucción original y comenzó a borrar mensajes más antiguos que el 15 de febrero que no estuvieran en una lista de conservación.Este caso abrió varias preguntas. La primera es técnica: ¿cómo un sistema puede ignorar una instrucción explícita como “confirma antes de actuar”? Según explicó Yue, el agente perdió el contexto inicial durante la reorganización de datos. Eso muestra una limitación conocida en modelos de lenguaje: cuando manejan grandes volúmenes de información, pueden resumir o descartar partes del contexto. Si la orden crítica se pierde, el sistema actúa según reglas incompletas.La segunda pregunta es de seguridad. OpenClaw funciona con permisos amplios, incluso acceso de nivel administrador. Eso significa que puede leer, borrar o modificar archivos y cuentas conectadas. El investigador Gary Marcus comparó esta práctica con darle todas tus contraseñas a alguien desconocido que promete ayudarte. Es una metáfora fuerte, pero ayuda a entender el riesgo.Además, no es un caso aislado. Según Bloomberg, otro ingeniero permitió que OpenClaw accediera a su iMessage. El agente terminó enviando más de 500 mensajes no solicitados a contactos al azar. Cuando un sistema autónomo tiene acceso directo a servicios reales, cualquier error escala rápido. Y si la persona no puede detenerlo desde el móvil, el control humano queda en desventaja frente a la velocidad de la máquina.Después de detener el proceso desde su Mac mini, Yue publicó capturas de pantalla donde el agente reconocía que había “violado” la instrucción y pedía disculpas. Ella misma calificó lo ocurrido como un “rookie mistake”, un error de principiante. Admitió que se confió porque el flujo había funcionado bien en su bandeja de prueba.El creador de OpenClaw ha dicho en entrevistas que está priorizando reforzar las salvaguardas de seguridad antes de añadir funciones de facilidad de uso. Eso significa más controles, más confirmaciones y límites de acceso. También recordó que el proyecto todavía está en etapa temprana y no debe tratarse como una herramienta totalmente confiable.Incluso figuras como Elon Musk comentaron en X que dar acceso total a estos agentes es como entregar las llaves de toda tu vida digital. Más allá de la ironía, el punto central es que los sistemas autónomos necesitan barreras técnicas y hábitos responsables por parte de los usuarios.Este episodio no muestra que la inteligencia artificial sea malvada. Muestra que la automatización sin supervisión puede generar consecuencias rápidas. La alineación no es un interruptor que se enciende y listo. Es un proceso continuo de pruebas, errores y mejoras.OpenClaw se volvió tendencia en Silicon Valley porque promete automatizar tareas complejas: organizar correos, enviar mensajes, ejecutar scripts y manejar aplicaciones completas. Funciona como un agente que interpreta instrucciones en lenguaje natural y luego actúa directamente en el sistema operativo.El concepto de “alineación” en inteligencia artificial significa que el sistema debe comportarse de acuerdo con valores y objetivos humanos. En empresas como Meta, OpenAI o Google, hay equipos dedicados a investigar cómo evitar que modelos avanzados generen respuestas dañinas o ejecuten acciones indebidas. Yue llegó a Meta después de acuerdos estratégicos en el sector de datos y modelos avanzados, y su papel está precisamente en estudiar estos riesgos.Curiosamente, al mismo tiempo surgieron reportes de usuarios de Gemini que perdieron historiales de chat tras actualizaciones del sistema. Google calificó esos casos como fallos técnicos y anunció restauraciones. Aunque son situaciones distintas, ambos casos recuerdan algo básico: los datos digitales dependen de sistemas complejos que pueden fallar.Para cualquier persona que use herramientas automáticas, la recomendación técnica es clara: probar primero en entornos controlados, limitar permisos, mantener copias de seguridad y entender qué nivel de acceso se está otorgando. Un agente autónomo puede trabajar rápido, pero también puede equivocarse rápido.Un agente de inteligencia artificial borró correos de la directora de seguridad de Meta tras perder una instrucción. Ella logró detenerlo a tiempo. La historia deja una enseñanza: automatiza con cuidado y nunca entregues acceso total sin respaldo. ¿Tú confiarías tu correo a un agente autónomo? Cuéntamelo y sigue el pódcast en Spotify:Flash Diario

    Nueva jefa en Microsoft Gaming

    Play Episode Listen Later Feb 23, 2026 11:44 Transcription Available


    Asha Sharma lidera XboxAsha Sharma asume como CEO de Microsoft Gaming y promete reforzar Xbox y creatividad humanaPor Félix Riaño @LocutorCoMicrosoft nombra a Asha Sharma CEO de su división de videojuegos tras la salida de Phil Spencer. La nueva etapa mezcla consola, nube e inteligencia artificial con foco en juegos creados por personas.Microsoft anunció un cambio histórico en su división de videojuegos. Phil Spencer, quien llevaba 38 años en la empresa y 12 años al frente de Xbox, se va a retirar. En su lugar llega Asha Sharma, ejecutiva que venía liderando productos de inteligencia artificial dentro de Microsoft. Ahora será la nueva directora ejecutiva de Microsoft Gaming y reportará directamente a Satya Nadella.La noticia llega en un momento delicado. Las ventas de consolas Xbox han caído frente a PlayStation y Nintendo. Además, los ingresos por videojuegos bajaron cerca de 10 % en el último trimestre reportado, mientras otras áreas de Microsoft crecían alrededor de 17 %. ¿Puede una líder con perfil en inteligencia artificial recuperar la confianza de los jugadores tradicionales de Xbox?Un giro inesperado hacia la inteligencia artificialPara entender este momento hay que mirar atrás. Phil Spencer tomó el control de Xbox en 2014, cuando la marca atravesaba problemas con el lanzamiento de Xbox One. En esos años se habló incluso de vender la división. Spencer defendió mantener hardware, estudios y software bajo un mismo equipo. Impulsó Xbox Game Pass y lideró compras gigantescas como ZeniMax por 7.500 millones de dólares y Activision Blizzard por 68.700 millones de dólares.Hoy Microsoft Gaming reúne casi 40 estudios. Allí viven sagas como Halo, Call of Duty, World of Warcraft, Diablo y Candy Crush Saga. Son mundos que mueven millones de jugadores cada mes.En ese contexto entra Asha Sharma. Ella trabajó en Meta, fue directora de operaciones en Instacart y luego regresó a Microsoft para liderar CoreAI, el grupo que desarrolla herramientas de inteligencia artificial. En su primer mensaje dijo algo directo: no va a llenar el ecosistema con “basura hecha por IA”. Aseguró que los juegos seguirán siendo arte creado por personas.La llegada de Asha Sharma ha generado debate. Muchos jugadores temen que Xbox se convierta en un laboratorio de inteligencia artificial y pierda identidad. Durante los últimos años, Microsoft llevó varios juegos exclusivos a consolas rivales. Eso hizo que parte de la comunidad sintiera que Xbox estaba perdiendo su esencia.Además, los números no ayudan. Según datos de mercado citados por medios especializados, las ventas de consolas Xbox cayeron hasta 70 % en la temporada navideña de 2025 frente al año anterior. Mientras tanto, Sony y Nintendo mantienen una base fuerte de usuarios.También hubo recortes de personal y cierre de estudios. Más de 2.500 puestos relacionados con videojuegos se han eliminado desde 2024. Todo esto ocurre mientras el desarrollo de juegos es cada vez más costoso y largo.A esto se suma otra pregunta. Microsoft está invirtiendo miles de millones en inteligencia artificial. ¿Se usará la IA para ayudar a los desarrolladores o para reducir costos? Sharma dice que no perseguirá eficiencia rápida a costa de calidad. Pero muchos fans quieren ver acciones concretas, como nuevos juegos exclusivos potentes y una consola con identidad clara.En sus primeras declaraciones, Asha Sharma marcó tres prioridades. Primero, grandes juegos. Habló de personajes inolvidables y de historias que hagan sentir algo. Segundo, el regreso de Xbox como consola central para sus fans más fieles. Y tercero, el futuro del juego en múltiples dispositivos.Eso significa que Xbox va a seguir en consolas, pero también en PC, móviles y nube. Microsoft ya permite jugar títulos propios en otras plataformas y en streaming. Sharma dice que buscará romper barreras para que un desarrollador cree una vez y llegue a muchos dispositivos.Matt Booty fue ascendido a director de contenido y seguirá supervisando los estudios. Phil Spencer acompañará la transición hasta el verano. No habrá cambios inmediatos en la estructura de estudios.La gran prueba llegará pronto. En 2026 se esperan lanzamientos de alto impacto, incluido Grand Theft Auto VI, que estará disponible en Xbox Series X y Series S. Si Xbox logra atraer jugadores con catálogo fuerte y experiencia estable, el nuevo liderazgo ganará tiempo y confianza.Xbox cumple 25 años desde el lanzamiento de su primera consola en 2001. En ese cuarto de siglo, la marca pasó de ser una apuesta arriesgada frente a Sony a convertirse en una red global con más de 500 millones de usuarios activos mensuales, según cifras compartidas por Microsoft.La compra de Activision Blizzard por 68.700 millones de dólares fue una de las más grandes en la historia del entretenimiento digital. Esa operación dio a Microsoft franquicias como Call of Duty y World of Warcraft. También consolidó su presencia en juegos móviles gracias a King, creadora de Candy Crush.Asha Sharma tiene 36 años y formación en negocios. Antes de volver a Microsoft, gestionó en Instacart operaciones que movían más de 30.000 millones de dólares en volumen bruto de mercancías. Su experiencia ha estado centrada en plataformas digitales que escalan a millones de usuarios.En paralelo, Microsoft desarrolla herramientas de inteligencia artificial como Copilot y servicios en la nube que pueden integrarse en el desarrollo de videojuegos. La promesa es usar estas tecnologías para acelerar pruebas, mejorar gráficos o ayudar a los equipos creativos, sin reemplazar el trabajo humano.El reto será equilibrar tradición y tecnología. La industria del videojuego vive una transformación profunda. Consolas, nube, suscripciones y ahora IA conviven en un mismo tablero.Phil Spencer se retira y Asha Sharma toma el mando de Xbox en un momento desafiante. La promesa es reforzar la consola y usar inteligencia artificial con responsabilidad. Vamos a seguir atentos a los próximos anuncios y lanzamientos. Cuéntame qué esperas tú del futuro de Xbox y sigue Flash Diario en Spotify.BibliografíaMicrosoft BlogCNBCThe VergeVarietyForbesPCMagConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    30 kilómetros de teletransportación real

    Play Episode Listen Later Feb 20, 2026 13:19 Transcription Available


    Teletransportación cuántica en BerlínLa fibra comercial de Berlín logró teletransportar información cuántica con 90 % de fidelidad promedio realPor Félix Riaño @LocutorCoDeutsche Telekom y Qunnect prueban teletransportación cuántica sobre fibra óptica comercial en red activa urbana.En Berlín ocurrió algo que suena a película de ciencia ficción, pero no lo es. La empresa alemana Deutsche Telekom y la empresa estadounidense Qunnect lograron teletransportar información cuántica a través de 30 kilómetros de fibra óptica comercial que ya estaba en uso.Sí, escuchaste bien. No estaban en un laboratorio aislado. Estaban usando la misma infraestructura por donde circulan llamadas, mensajes y datos de internet. Y lo hicieron con una fidelidad promedio del 90 %. En algunos momentos alcanzaron el 95 %.Pero calma. No estamos hablando de personas viajando de un punto a otro. Estamos hablando de qubits. ¿Qué significa eso realmente? ¿Y por qué importa que esto ocurra fuera de un laboratorio?La física es frágil fuera del laboratorioPrimero vamos a entender qué pasó.Un qubit es la unidad básica de información en computación cuántica. A diferencia de un bit tradicional, que solo puede ser cero o uno, el qubit puede estar en una combinación de ambos estados al mismo tiempo. Eso permite cálculos que un computador clásico tardaría miles de años en resolver.La teletransportación cuántica no mueve materia. Lo que hace es transferir el estado cuántico de una partícula a otra distante, usando un fenómeno llamado entrelazamiento cuántico. Dos partículas quedan conectadas de tal forma que lo que le pasa a una afecta a la otra, aunque estén separadas por kilómetros.En enero de 2026, en una red activa de Berlín, los investigadores teletransportaron qubits generados por una fuente coherente débil a lo largo de 30 kilómetros de fibra óptica comercial. Esto ocurrió mientras el cable transportaba tráfico normal de internet.La plataforma utilizada fue el sistema Carina de Qunnect, que genera pares de fotones entrelazados y corrige automáticamente perturbaciones ambientales.Y aquí está el detalle interesante: la teletransportación se realizó a una longitud de onda de 795 nanómetros. Esa frecuencia es útil para conectar computadores cuánticos de átomos neutros, relojes atómicos y sensores cuánticos.Ahora bien, lograr esto en la vida real no es sencillo.Las redes cuánticas son extremadamente sensibles. Vibraciones, cambios de temperatura, interferencias eléctricas, incluso el paso de un camión pesado pueden alterar la señal en la fibra. En una ciudad como Berlín, con infraestructura subterránea compleja, eso es un desafío constante.Además, la fidelidad del 90 % significa que en promedio 9 de cada 10 estados cuánticos llegaron correctamente reconstruidos. Eso es alto, pero todavía no es perfecto. Para aplicaciones comerciales masivas, se necesitará acercarse mucho más al 100 %.También hay otra duda razonable. La computación cuántica todavía no está lista para uso general. Muchos prototipos requieren enfriamiento criogénico extremo. Entonces, ¿para qué teletransportar qubits si aún no hay redes globales de computadores cuánticos funcionando?Por otro lado, la seguridad. Se dice que los computadores cuánticos del futuro podrían romper los sistemas de cifrado actuales. Algunos expertos impulsan la criptografía poscuántica. Otros creen que se necesitarán redes basadas en física cuántica, como la distribución de claves cuánticas. Pero esa tecnología tiene límites de distancia cercanos a 200 kilómetros y ha recibido críticas por posibles vulnerabilidades técnicas.Así que la pregunta es: ¿esto es un avance sólido o es todavía una demostración experimental con muchas piezas faltantes?Lo que cambia el panorama es el contexto.No fue una simulación. Fue una red comercial operativa. Eso significa que los equipos de Qunnect se instalaron en racks reales, bajo control del operador, y convivieron con tráfico digital normal.Según declaraciones del equipo, el objetivo es avanzar hacia configuraciones con múltiples nodos y mayores distancias. Eso permitiría conectar centros de datos cuánticos en distintas ubicaciones y repartir carga de cálculo.En paralelo, en Nueva York, Qunnect trabajó con Cisco Systems para demostrar intercambio de entrelazamiento en una red metropolitana de 17,6 kilómetros. Allí lograron más de 1,7 millones de pares entrelazados por hora en pruebas locales y 5.400 pares por hora sobre fibra desplegada, con fidelidad superior al 99 %.Eso valida algo importante: estas tecnologías pueden funcionar en ciudades reales, con ruido real y cables reales.¿Significa que mañana tendremos internet cuántico en casa? No. Pero sí indica que las bases técnicas están saliendo del laboratorio y entrando en infraestructura existente.El concepto de internet cuántico busca conectar computadores cuánticos, sensores y relojes atómicos para que trabajen como una red distribuida. Esto permitiría, por ejemplo, sincronización ultra precisa, redes de sensores ambientales de alta sensibilidad y comunicaciones resistentes a ciertos tipos de espionaje.En Europa existe un interés estratégico en este campo. Se habla de soberanía tecnológica y de reducir dependencia de infraestructuras externas.En Estados Unidos, varias empresas también exploran arquitecturas tipo “hub and spoke”, donde un nodo central gestiona el entrelazamiento y otros nodos funcionan con equipos a temperatura ambiente, reduciendo costos.La publicación técnica del experimento de Berlín está disponible en arXiv, lo que permite que la comunidad científica revise los datos. Eso es relevante porque no se trata solo de un comunicado corporativo.Todavía faltan componentes como memorias cuánticas estables y repetidores cuánticos para ampliar distancias de cientos a miles de kilómetros. Pero estos ensayos muestran que la fibra óptica ya desplegada puede ser parte del futuro cuántico.Berlín logró teletransportar qubits por 30 kilómetros de fibra comercial con 90 % de fidelidad. No es ciencia ficción. Es infraestructura real probando redes cuánticas.¿Confías más en criptografía matemática o en seguridad basada en física cuántica? Cuéntamelo.Sigue el pódcast en Spotify:Flash DiarioBibliografíaDeutsche TelekomLight ReadingTom's HardwareQuantum Computing ReportReutersConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Google compone, Sony investiga ¿Quién cobrará por la música IA?

    Play Episode Listen Later Feb 19, 2026 26:07 Transcription Available


    Gemini crea canciones con Lyria 3 mientras Sony desarrolla tecnología para medir influencias y futuras regalías en música generada por IA Por Félix Riaño @LocutorCoGemini ya genera canciones con IA y Sony prepara herramientas para rastrear qué música humana influyó en ellasGoogle acaba de activar una nueva función en Google Gemini. Ahora puedes escribir una frase y obtener una canción de 30 segundos. Rap, pop, rock, afrobeat. Con letra o instrumental.El modelo que lo hace posible se llama Lyria 3 y viene del equipo de Google DeepMind. Está disponible desde el 18 de febrero de 2026 para mayores de 18 años en ocho idiomas, incluido el español.Pero mientras Google invita a jugar con la música, otra empresa trabaja en algo muy distinto. Sony Group desarrolla una tecnología capaz de estimar cuánto influyen canciones humanas en una pista creada por IA.Una crea. La otra mide. ¿Estamos entrando en la era del contador musical digital?Crear ahora es muy fácil. Rastrear es complejo.Primero, lo nuevo de Google.En la app de Gemini, vas a “Herramientas” y eliges “Crear música”. Escribes algo como: “Pop latino, ritmo alegre, guitarra acústica, voz femenina suave, letra sobre una mascota”. En segundos tienes un archivo de 30 segundos listo para descargar en MP3 o en video.Si subes una foto o un clip, Gemini analiza la imagen y compone algo que encaje con esa atmósfera. La portada la genera el modelo Nano Banana. Todo queda listo para compartir.Google aclara que el objetivo no es crear el próximo éxito mundial. Es expresión rápida. Una broma. Una banda sonora para un Short.Las canciones llevan una marca invisible llamada SynthID. Es un watermark digital que identifica que el audio fue generado por IA de Google. También puedes subir un archivo a Gemini y preguntarle si fue creado con su sistema.Eso es el lado creativo. Ahora viene el lado contable.La industria musical lleva años preguntando lo mismo: ¿con qué datos se entrenan estos modelos?Plataformas como Suno y Udio enfrentaron demandas por presunto uso de grabaciones protegidas sin licencia. El debate gira en torno a una pregunta sencilla: si una IA aprende escuchando música humana, ¿quién debe recibir pago?Ahí entra Sony.El equipo de Sony AI publicó una investigación sobre un sistema capaz de estimar qué canciones influyen en una pista generada por IA. En pruebas académicas, el sistema puede calcular porcentajes aproximados de influencia.Si el desarrollador coopera, se analizan datos internos del modelo. Si no coopera, se comparan las canciones generadas con grandes catálogos musicales.El reto es técnico y enorme. En pruebas con conjuntos relativamente pequeños, atribuir influencias puede tardar horas usando equipos muy potentes. Llevar eso a escala industrial es un desafío todavía abierto.Pero la intención es clara: construir una base para repartir regalías cuando la IA participe en la creación musical.No estamos ante una pelea directa entre Google y Sony. Estamos viendo dos movimientos en el mismo tablero.Google apuesta por integrar texto, imagen, video y ahora sonido en un solo ecosistema creativo. Con millones de usuarios activos en Gemini, la generación musical se vuelve cotidiana.Sony, que controla enormes catálogos históricos, explora cómo transformar la atribución en una herramienta de negociación y reparto económico.Si la música generada por IA crece en plataformas de streaming, será necesario decidir cómo se distribuyen los ingresos.La gran pregunta es esta: ¿vamos a tener un sistema donde cada canción generada por IA venga acompañada de un cálculo de influencia?La tecnología ya está en desarrollo. Lo que falta es que la industria acuerde cómo usarla.Lyria 3 está disponible en inglés, alemán, español, francés, hindi, japonés, coreano y portugués. Google planea ampliar idiomas y mejorar calidad.Los usuarios gratuitos pueden crear canciones con límites diarios. Los planes de pago permiten más generación.Además, Google integra Lyria 3 con YouTube Dream Track para crear música personalizada en Shorts. Eso puede impactar directamente en la producción masiva de contenido corto.Mientras tanto, empresas y sellos discográficos desarrollan herramientas de detección basadas en análisis estadístico y técnicas de “machine unlearning”. Estos sistemas intentan identificar qué partes del conocimiento de un modelo influyen en un resultado específico.El debate no es si la IA puede hacer música. Ya puede.El debate es cómo se mide su deuda con la música humana.Gemini ahora crea canciones en segundos. Sony trabaja en medir qué música humana influyó en ellas.Estamos ante creatividad instantánea y contabilidad algorítmica al mismo tiempo.¿Te entusiasma más crear o medir?Escucha más episodios en Spotify: Flash Diario BibliografíaNumeramaFrandroidBFMTVGoogle BlogComplete Music UpdateElectronics WeeklyConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Latam-GPT regional

    Play Episode Listen Later Feb 18, 2026 12:05


    Latam-GPT regionalLatam-GPT, el modelo abierto chileno, busca reducir sesgos y fortalecer soberanía tecnológica latinoamericanaPor Félix Riaño @LocutorCoChile presentó Latam-GPT, un modelo de inteligencia artificial abierto entrenado con datos de América Latina y el Caribe para mejorar la representación cultural y lingüística en sistemas de IAChile acaba de dar un paso que puede cambiar la conversación sobre inteligencia artificial en nuestra región. El 10 de febrero, en Santiago, se presentó Latam-GPT, un modelo de lenguaje abierto creado desde América Latina y pensado para América Latina. El proyecto fue coordinado por el Centro Nacional de Inteligencia Artificial de Chile y reunió a más de 60 instituciones y cerca de 200 especialistas de al menos 15 países.La idea es sencilla de entender: muchos sistemas de inteligencia artificial que usamos a diario fueron entrenados sobre todo con información en inglés y con referencias culturales del norte global. Eso deja por fuera parte de nuestra historia, nuestras palabras y nuestras formas de hablar. ¿Puede una región participar en la revolución de la IA si su propia voz casi no aparece en los datos?La región quiere su propia voz digitalLatam-GPT fue desarrollado sobre la arquitectura abierta Llama 3.1, creada por Meta. Tiene 70.000 millones de parámetros. Cuando hablamos de parámetros, nos referimos a los valores internos que el modelo ajusta para aprender patrones del lenguaje. Entre más parámetros, mayor capacidad para captar relaciones complejas entre palabras y contextos.Para entrenarlo, el equipo reunió más de 300.000 millones de fragmentos de texto, lo que equivale a unos 230.000 millones de palabras. También se habla de más de ocho terabytes de información. Ocho terabytes son ocho millones de megabytes, un volumen comparable al contenido de millones de libros digitales. Todo ese material fue recopilado con permisos y licencias, según el Centro Nacional de Inteligencia Artificial.El modelo fue entrenado principalmente en español y portugués, los idiomas mayoritarios de la región. Además, el plan es incorporar lenguas indígenas como el mapudungun y el rapa nui. En su primera fase se entrenó en la nube de Amazon Web Services, y en 2026 se va a utilizar un supercomputador en la Universidad de Tarapacá, en el norte de Chile, con una inversión cercana a cinco millones de dólares.El contexto es claro. Estudios citados por los impulsores del proyecto indican que el español representa alrededor del 4 % de los datos usados para entrenar grandes modelos de lenguaje. El portugués apenas ronda el 2 %. Eso significa que más del 90 % del material proviene de otros idiomas y otras realidades culturales.Cuando un modelo aprende sobre todo con datos de Estados Unidos o Europa, puede responder mejor a preguntas sobre el sitio de Calais en 1346 que sobre el sitio de Chillán en la independencia chilena. Puede generar imágenes estereotipadas cuando se le pide representar a una persona latinoamericana. Ese sesgo no siempre es malintencionado, pero sí refleja un desequilibrio en los datos.Al mismo tiempo, el mercado global de la inteligencia artificial está dominado por grandes empresas de Estados Unidos y China, con presupuestos de cientos de millones o miles de millones de dólares. Latam-GPT fue desarrollado con un presupuesto cercano a 550.000 dólares, según varias fuentes. Algunos académicos advierten que, con esa diferencia de recursos, competir de tú a tú con modelos comerciales será muy difícil. Entonces surge otra pregunta: ¿el objetivo es competir o construir infraestructura pública regional?Los responsables del proyecto insisten en que Latam-GPT no nace como un chatbot para el público general. No es una copia directa de servicios como ChatGPT o Gemini. Es una base tecnológica abierta que gobiernos, universidades y empresas pueden adaptar a sus propias necesidades.Al estar disponible en plataformas como Hugging Face y GitHub, cualquier desarrollador puede descargar el modelo, ajustarlo y crear aplicaciones locales. Por ejemplo, la empresa chilena Digevo ya anunció que va a usarlo para desarrollar sistemas de atención al cliente para aerolíneas y comercios, capaces de entender modismos, velocidad de habla y expresiones regionales.El presidente chileno, Gabriel Boric, afirmó durante el lanzamiento que la región quiere sentarse a la mesa de la economía digital del futuro. La apuesta es construir soberanía tecnológica. Eso implica tener capacidad de decisión sobre los datos, las reglas y los usos de la inteligencia artificial en servicios públicos, salud, educación y justicia.Latam-GPT se suma a otras iniciativas regionales como SEA-LION en el sudeste asiático y UlizaLlama en África. Todas comparten una idea: adaptar la inteligencia artificial a contextos culturales específicos y reducir la dependencia de modelos extranjeros.El proyecto fue coordinado por el Centro Nacional de Inteligencia Artificial de Chile, con apoyo del Ministerio de Ciencia de ese país, el Banco de Desarrollo de América Latina y el Caribe, conocido como CAF, y otras organizaciones académicas y sociales de países como Colombia, Brasil, México, Perú, Uruguay y Argentina.Aunque el presupuesto inicial fue modesto en comparación con los gigantes tecnológicos, el plan contempla nuevas inversiones en infraestructura. El supercomputador que se instalará en la Universidad de Tarapacá permitirá entrenar versiones futuras con mayor capacidad y posiblemente añadir funciones multimodales, es decir, que el modelo pueda trabajar también con imágenes, audio o video.Otro punto clave es la gobernanza. Al tratarse de un modelo abierto, será necesario establecer reglas de uso, evaluaciones de sesgo, documentación sobre los datos empleados y mecanismos de actualización. La apertura facilita auditorías y adaptaciones locales, pero también exige responsabilidad en su implementación.Desde el punto de vista económico, un modelo regional puede reducir costos para startups y entidades públicas que no pueden pagar licencias elevadas de servicios internacionales. También puede impulsar la investigación en universidades latinoamericanas y formar talento especializado en inteligencia artificial.La gran incógnita es la sostenibilidad a largo plazo. Los modelos de lenguaje requieren actualizaciones constantes, nuevos datos y capacidad de cómputo. Si la coalición de más de 60 instituciones se mantiene activa, Latam-GPT puede convertirse en una plataforma estable. Si pierde financiación, el impulso inicial podría diluirse.En resumen, Latam-GPT es un modelo de inteligencia artificial abierto creado en Chile con apoyo regional para mejorar la representación cultural y lingüística de América Latina. Busca reducir sesgos y fortalecer soberanía tecnológica. Ahora la pregunta es cómo se va a usar y si logrará consolidarse como infraestructura pública regional.Te invito a seguir el pódcast en Spotify y a compartir este episodio de Flash Diario. Tu apoyo ayuda a que más personas entiendan la tecnología que está transformando nuestro mundo.BibliografíaAI BusinessEuronewsUPIIntelliNewsFrance InfoThe Tico TimesConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Anillo de fuego solar

    Play Episode Listen Later Feb 17, 2026 10:03 Transcription Available


    Anillo de fuego solarAnillo de fuego solar del 17 de febrero de 2026 visible en la AntártidaPor Félix Riaño @LocutorCoEl primer eclipse solar de 2026 será anular, con un “anillo de fuego” visible desde la Antártida y parcialmente desde Sudamérica y África.Este 17 de febrero de 2026 el cielo va a ofrecer uno de esos espectáculos que parecen de ciencia ficción. La Luna va a pasar justo delante del Sol y va a dejar un aro brillante alrededor. A eso se le llama eclipse solar anular, o como muchos lo conocen, “anillo de fuego”.Pero hay un detalle importante: apenas alrededor del 2 % de la población mundial va a poder verlo en persona. El lugar privilegiado será una franja muy estrecha de la Antártida. En el sur de Argentina, Chile y partes del sur de África se va a observar como eclipse parcial.¿Por qué esta vez casi nadie habla del eclipse? ¿Qué lo hace diferente del eclipse total que vimos en 2024 en América? Vamos a entenderlo paso a paso.Pocas personas podrán verlo directamenteUn eclipse solar ocurre cuando la Luna se interpone entre la Tierra y el Sol. Eso sucede en fase de Luna nueva. Pero no siempre vemos un eclipse. La razón es geométrica. La órbita de la Luna está inclinada. Muchas veces pasa un poco por encima o por debajo del Sol desde nuestra perspectiva.En este caso, el alineamiento será casi perfecto. La Luna cubrirá hasta el 96 % del disco solar en la zona central del fenómeno. El problema es que la Luna estará un poco más lejos de la Tierra en su órbita elíptica. Al estar más lejos, se verá ligeramente más pequeña. Por eso no tapará el Sol por completo.El resultado será un círculo oscuro con un borde brillante alrededor. Ese borde es el Sol que sigue asomando. El fenómeno completo comenzará a las 09:56 en Tiempo Universal Coordinado y terminará a las 14:27. En el punto máximo, el anillo podrá durar hasta 2 minutos y 20 segundos. La sombra recorrerá un corredor de unos 4.282 kilómetros de largo y 616 kilómetros de ancho sobre el hielo antártico.Aquí viene el punto curioso. Este eclipse no generará grandes concentraciones de turistas. La franja de anularidad cruza una región de la Antártida donde casi no vive nadie. Se estima que apenas algunas decenas de científicos en bases como Concordia o Mirny podrán observar el anillo completo si el clima lo permite.Eso explica por qué el evento pasa casi desapercibido en muchos países. En el sur de Argentina y Chile el Sol aparecerá “mordido”, pero no se verá el anillo completo. En zonas del sur de África también será parcial. Para millones de personas en el hemisferio norte, simplemente no será visible.Otro punto clave es la seguridad. En un eclipse total, durante unos instantes se puede mirar sin gafas especiales cuando el Sol queda completamente cubierto. Aquí eso nunca ocurrirá. Siempre habrá luz solar directa. Mirar sin protección puede causar daño permanente en la retina. Gafas de sol normales no sirven. Se necesitan gafas certificadas para observación solar o métodos indirectos como un proyector estenopeico hecho con cartón.Aunque este eclipse sea remoto, forma parte de un ciclo más amplio. Los eclipses suelen venir en temporadas. Cuando ocurre uno solar, alrededor de dos semanas antes o después suele haber uno lunar. Y eso es lo que va a pasar ahora.El 3 de marzo de 2026 habrá un eclipse lunar total visible desde América, Asia, Australia y el Pacífico. En ese caso, la Tierra se interpondrá entre el Sol y la Luna. La Luna se teñirá de rojo. Ese fenómeno sí será visible para millones de personas y no requerirá gafas especiales.Además, el calendario astronómico de 2026 viene cargado. El 12 de agosto de 2026 habrá un eclipse solar total visible desde Groenlandia, Islandia y el norte de España. En 2027 habrá otro eclipse anular visible desde el sur de Chile y Argentina, con una duración mucho mayor.Así que, aunque este “anillo de fuego” sea exclusivo de la Antártida, el espectáculo de los eclipses seguirá ofreciendo oportunidades más accesibles muy pronto.Un dato fascinante es la coincidencia de tamaños aparentes entre el Sol y la Luna. El Sol es unas 400 veces más grande que la Luna. Pero también está aproximadamente 400 veces más lejos. Esa proporción hace que, vistos desde la Tierra, ambos parezcan casi del mismo tamaño.Cuando la Luna está en su punto más cercano a la Tierra, puede cubrir el Sol por completo y producir un eclipse total. Cuando está más lejos, como ahora, deja ese aro brillante.Se calcula que alrededor de 176 millones de personas podrán ver al menos una fase parcial de este eclipse. Aun así, eso representa una pequeña fracción del planeta.Y un detalle interesante: en regiones como el noroeste de Estados Unidos no se verá ningún eclipse solar hasta el año 2045. En otras palabras, la geografía decide quién puede vivir estos momentos. Todo depende de estar exactamente en el lugar correcto cuando la sombra pasa. Es pura mecánica celeste.Resumen y recomendaciónEl 17 de febrero de 2026 veremos un eclipse solar anular con un “anillo de fuego” visible desde la Antártida. Será breve, remoto y científicamente fascinante. Si no puedes verlo, prepárate para el eclipse lunar del 3 de marzo.Cuéntame si alguna vez has visto un eclipse y qué sentiste. BibliografíaCNNSky at Night MagazineSpace.comLive ScienceConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Estación Espacial Internacional a plena tripulación

    Play Episode Listen Later Feb 16, 2026 10:54 Transcription Available


    Cuatro astronautas ya están en la Estación Espacial Internacional tras la primera evacuación médica en 65 años. La misión Crew-12 marca un momento delicado y simbólico para la exploración humana.Por Félix Riaño @LocutorCoTripulación Crew-12 llega a la Estación Espacial tras evacuación médica histórica de la NASALa Estación Espacial Internacional vuelve a estar completa. Este sábado 14 de febrero, cuatro nuevos astronautas llegaron al laboratorio orbital que gira a unos 400 kilómetros sobre la Tierra. Viajaron a bordo de una cápsula Dragon impulsada por un cohete Falcon 9 de SpaceX. Su llegada ocurre después de un hecho poco común: en enero, la NASA tuvo que evacuar a un astronauta por un problema de salud. Fue la primera vez en 65 años de vuelos espaciales humanos que una misión se acortó por razones médicas. Durante un mes, la estación funcionó con solo tres tripulantes. ¿Qué pasó allá arriba y qué va a cambiar ahora con esta nueva misión?Pero hay un detalle que inquieta.La misión se llama Crew-12. Está formada por Jessica Meir y Jack Hathaway, de la NASA; Sophie Adenot, de la Agencia Espacial Europea; y Andrei Fedyaev, de la agencia rusa Roscosmos. Despegaron el viernes 13 de febrero desde Cabo Cañaveral, en Florida, y tardaron unas 34 horas en alcanzar la Estación Espacial Internacional.Cuando la cápsula se acopló, a las 20:15 GMT del sábado, Sophie Adenot saludó con un “Bonjour” desde el espacio. Dos horas después, se abrieron las escotillas. Ya eran siete personas flotando dentro de una estructura del tamaño de un campo de fútbol que orbita la Tierra a unos 28.000 kilómetros por hora.Durante el último mes, la estación operó con solo tres astronautas: un estadounidense y dos rusos. La NASA decidió pausar caminatas espaciales y reducir algunos experimentos mientras esperaba refuerzos. Ahora, con siete tripulantes, la actividad científica se va a normalizar.Todo comenzó el 7 de enero. Uno de los astronautas de la misión anterior presentó un problema de salud que la NASA describió como serio. Por privacidad médica, la agencia no reveló su identidad ni la naturaleza del incidente. La decisión fue traer de regreso a los cuatro integrantes de esa misión más de un mes antes de lo previsto.La cápsula amerizó en el Pacífico, cerca de San Diego. Pasaron su primera noche en un hospital antes de volver a Houston. Mientras tanto, la estación quedó con una tripulación reducida. Aunque no hubo emergencias técnicas, sí se limitaron actividades. En un entorno donde cada tarea está programada al minuto, perder cuatro personas altera toda la logística.Y aquí surge la pregunta: si las misiones van a ser más largas, incluso hacia la Luna o Marte, ¿qué va a pasar cuando haya un problema médico y no exista la opción de regresar en pocas horas?La NASA decidió no modificar los chequeos médicos previos al lanzamiento de Crew-12. Tampoco añadió equipos médicos extra. Confía en los protocolos actuales. Pero al mismo tiempo, reconoce que la medicina espacial necesita evolucionar.La nueva tripulación no solo va a retomar experimentos pendientes. También va a probar tecnologías médicas pensadas para viajes más lejanos. Por ejemplo, un sistema de ultrasonido que usa inteligencia artificial y realidad aumentada para guiar al propio astronauta durante el examen, sin depender tanto de expertos en la Tierra.Van a ensayar un filtro que convierte agua potable en líquido apto para uso intravenoso en emergencias. También estudiarán cómo la microgravedad afecta el flujo sanguíneo y la formación de coágulos en las venas del cuello.Jessica Meir, quien ya pasó 205 días en órbita en 2019 y participó en la primera caminata espacial femenina junto a Christina Koch, ahora regresa como comandante. Y hay un detalle interesante: Christina Koch está asignada a la misión Artemis II, que podría despegar hacia la Luna a partir del 3 de marzo si las pruebas del cohete Space Launch System avanzan sin más fugas de hidrógeno.Mientras la estación recibe nuevos tripulantes, en Florida se siguen reemplazando sellos y haciendo pruebas de combustible para el programa lunar. Todo está conectado: lo que ocurre hoy en órbita baja va a influir en cómo la humanidad regrese a la Luna y, más adelante, intente llegar a Marte.La Estación Espacial Internacional lleva más de 25 años habitada de forma continua. Es uno de los proyectos de ingeniería más costosos jamás construidos, con una inversión estimada entre 150.000 y 160.000 millones de dólares a lo largo de su vida útil.Está previsto que en 2030 la estación sea desorbitada de forma controlada y caiga en una zona remota del océano Pacífico. Crew-12 será una de las últimas tripulaciones que vivan allí durante varios meses.Sophie Adenot se convierte en la segunda mujer francesa en viajar al espacio, después de Claudie Haigneré en la década de 1990. Para la Agencia Espacial Europea, esta misión llamada εpsilon será la más larga realizada por uno de sus astronautas hasta ahora, con hasta nueve meses en órbita.La cooperación internacional sigue siendo uno de los pilares de la estación. A pesar de tensiones políticas en la Tierra, Estados Unidos, Europa y Rusia continúan trabajando juntos en órbita. Desde las ventanas de la estación no se ven fronteras. Esa frase la repiten muchos astronautas, y vuelve a cobrar sentido en un momento en el que el proyecto se acerca a su final.La Estación Espacial Internacional vuelve a tener siete tripulantes después de una evacuación médica histórica. Crew-12 va a retomar la ciencia y probar nuevas herramientas médicas para misiones más lejanas. La exploración espacial entra en una etapa de transición. ¿Estamos preparados para cuidar la salud humana lejos de casa? Te leo en comentarios y sigue el pódcast en Flash Diario.

    ¿Puede un cometa cambiar de sentido?

    Play Episode Listen Later Feb 13, 2026 12:13 Transcription Available


    El Cometa 41P frenó, se detuvo y cambió sentido tras acercarse al Sol en 2017Por Félix Riaño @LocutorCoUn análisis de imágenes del telescopio Hubble reveló que el cometa 41P invirtió su rotación después del perihelio en 2017En 2017, un cometa de apenas medio kilómetro de diámetro hizo algo que parece imposible. El cometa 41P/Tuttle–Giacobini–Kresák, conocido como 41P, redujo su velocidad de giro de forma drástica cuando se acercó al Sol. Pasó de rotar cada 20 horas a hacerlo cada 53 horas en pocas semanas. Luego desapareció de nuestra vista porque quedó demasiado cerca del Sol desde la perspectiva de la Tierra. Meses después, cuando volvió a ser visible, los datos mostraron algo aún más sorprendente: estaba girando en sentido contrario y completaba una vuelta cada 14,4 horas. ¿Cómo puede un objeto espacial frenar hasta detenerse y luego empezar a girar al revés?¿Y si el cometa se frenó hasta cero?Planteamiento descriptivoPara entender esta historia vamos a empezar por lo básico. Un cometa es una mezcla de roca y hielo que quedó como residuo del nacimiento del Sistema Solar hace unos 4.600 millones de años. Muchos de estos cuerpos viajan en órbitas muy alargadas. El cometa 41P pertenece a la llamada “familia de Júpiter”. Eso significa que su órbita está muy influenciada por la gravedad de Júpiter y que tarda menos de 20 años en dar una vuelta alrededor del Sol. En su caso, tarda unos 5,4 años.En abril de 2017, 41P llegó a su perihelio, que es el punto de la órbita más cercano al Sol. Allí recibió más calor. El hielo comenzó a transformarse en gas, un proceso llamado sublimación. Ese gas salió disparado al espacio y formó una nube llamada coma. También aparecieron chorros, como si fueran pequeñas mangueras naturales que empujan el cometa.Aquí aparece el detalle que lo cambia todo. Cuando esos chorros de gas salen de forma desigual, actúan como pequeños motores. Si el gas sale más fuerte de un lado que de otro, el cometa recibe un empujón que altera su rotación. Es parecido a lo que ocurre cuando soplas una rueda con aire de un solo lado.Observaciones del telescopio espacial Swift de la NASA mostraron que entre marzo y mayo de 2017 el periodo de rotación pasó de 20 horas a 46 y luego hasta 53 horas. Normalmente los cambios en cometas se miden en minutos. Aquí hablamos de decenas de horas. Es un cambio enorme para un objeto tan pequeño, de unos 500 metros de diámetro.Después de mayo, el cometa quedó oculto por el brillo solar. No había datos. Cuando regresó en diciembre, el telescopio espacial Hubble tomó nuevas imágenes. El astrónomo David Jewitt, de la Universidad de California en Los Ángeles, analizó esas fotos años después. Encontró que el periodo era ahora de 14,4 horas. Eso significa que estaba girando más rápido que antes y en sentido contrario. Para que eso ocurra, tuvo que frenar completamente, llegar a cero y empezar a girar al revés. Los cálculos indican que ese punto de detención pudo ocurrir en junio de 2017.Este hallazgo ayuda a responder una pregunta más grande. ¿Por qué hay menos cometas pequeños de los que esperamos encontrar? Una posible explicación es que muchos se destruyen por su propia rotación. Si los chorros los aceleran demasiado, la fuerza centrífuga puede romperlos.El estudio también estimó que el núcleo de 41P mide cerca de 500 metros. Es pequeño en términos astronómicos. Su tamaño lo hace más vulnerable a cambios rápidos. Además, la fracción activa de su superficie, es decir, la parte que libera gas, bajó de aproximadamente 2,4 en 2001 a cerca de 0,14 en 2017. Eso sugiere que su superficie ha cambiado con el tiempo, tal vez formando una capa más dura que bloquea parte del hielo.Aquí hay otro dato inquietante. Aunque su órbita podría mantenerse estable durante unos 10.000 años, el análisis indica que podría romperse por inestabilidad rotacional en unos 25 años si continúa este comportamiento. Eso es muy poco tiempo en términos cósmicos.El cometa volverá a acercarse al Sol en 2028. Los astrónomos estarán atentos. Nuevos telescopios como el Observatorio Vera C. Rubin en Chile van a observar miles de objetos pequeños. Vamos a tener muchos más datos para entender si 41P es un caso raro o si este fenómeno es más común de lo que pensábamos.El cometa 41P fue observado por primera vez en 1858 por Horace Tuttle. Más tarde fue redescubierto por Michel Giacobini en 1907 y por Ľubor Kresák en 1951. Por eso lleva tres apellidos. Su órbita lo lleva desde un punto un poco más cercano al Sol que la órbita de la Tierra hasta más allá de Júpiter.En 1973 tuvo un gran estallido de brillo y alcanzó magnitud 4, lo que significa que pudo verse a simple vista en cielos oscuros. En 2017 volvió a llamar la atención por razones muy distintas.El estudio de David Jewitt fue publicado como prepublicación en arXiv y aceptado en la revista The Astronomical Journal. Otros astrónomos, como Dennis Bodewits y Jane Luu, han señalado que aunque se habían propuesto modelos teóricos donde un cometa podía invertir su rotación, nunca se había observado algo así con datos tan claros.Este caso también nos enseña que los cometas no son rocas inertes. Son cuerpos dinámicos. Cambian, pierden masa, se fracturan y evolucionan cada vez que se acercan al Sol. Son como fósiles activos del origen del Sistema Solar.Resumen final y recomendaciónEl cometa 41P redujo su giro, se detuvo y comenzó a rotar al revés en 2017. Chorros de gas actuaron como motores naturales que cambiaron su velocidad. Podría romperse en pocas décadas. Vamos a seguir atentos a su regreso en 2028.Cuéntame qué te parece esta historia y sigue el pódcast en Spotify: Flash DiarioBibliografíaPhys.org The New York Times IFLScience arXiv – David Jewitt (2026) DOI: 10.48550/arxiv.2602.06403Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    WhatsApp Web ya permite llamar

    Play Episode Listen Later Feb 12, 2026 21:05 Transcription Available


    WhatsApp Web incorpora llamadas cifradas en navegador con pantalla compartida y soporte progresivo para más usuariosPor Félix Riaño @LocutorCoDespués de casi diez años desde su lanzamiento en 2015, WhatsApp Web va a empezar a permitir llamadas de voz y video directamente desde el navegador. Hasta ahora, si querías llamar desde un computador, tenías que usar el celular o descargar la aplicación de escritorio para Windows o macOS. La versión en el navegador servía para mensajes y envío de archivos, pero no para hablar en tiempo real.La novedad ya está llegando a personas inscritas en el programa beta de WhatsApp Web. En esta primera fase, las llamadas funcionan uno a uno. No hay llamadas grupales todavía. También se puede compartir la pantalla durante una videollamada. Todo mantiene el cifrado de extremo a extremo basado en el protocolo Signal.¿Estamos viendo a WhatsApp convertirse en una herramienta de reuniones desde el navegador?Meta acelera, pero aún hay límites.Planteamiento descriptivoWhatsApp Web nació en 2015 como una extensión del celular. Su función principal era reflejar en el navegador lo que ya estaba en el teléfono. Con el paso de los años fue mejorando en velocidad y estabilidad, pero había una ausencia evidente: no se podía llamar.Mientras tanto, las llamadas de voz llegaron a WhatsApp móvil en 2015 y las videollamadas poco después. En 2021, WhatsApp lanzó aplicaciones de escritorio para Windows y macOS que sí permitían llamadas. El navegador quedó rezagado durante casi una década.Ahora, según reportes de WABetaInfo y medios tecnológicos como 9to5Google y GSM Arena, la función de llamadas está empezando a activarse en la versión web beta. Aparecen botones visibles de “voz” y “video” dentro de los chats individuales. No hace falta instalar nada adicional. Basta con tener el navegador actualizado, cámara y micrófono autorizados, y la sesión vinculada al teléfono mediante código QR.Un detalle técnico importante: estas llamadas usan WebRTC, que es un estándar abierto que permite comunicación en tiempo real dentro del navegador. Es la misma base que usan muchas plataformas de reuniones en línea.Que WhatsApp Web incorpore llamadas es una mejora práctica, pero también abre preguntas sobre seguridad y uso responsable. Las llamadas siguen estando cifradas de extremo a extremo mediante el protocolo Signal. Eso significa que solo las personas que participan en la conversación pueden escuchar o ver el contenido. Ni siquiera Meta puede acceder a esas comunicacionesPero cuando usamos el navegador, entran en juego otros factores. El navegador tiene extensiones instaladas, permisos de cámara y micrófono, notificaciones emergentes. Si el usuario no presta atención a los permisos que concede, puede exponer información privada. Además, compartir pantalla desde el computador implica que la otra persona puede ver documentos, correos o incluso contraseñas si no se tiene cuidado.Al mismo tiempo, WhatsApp enfrenta retos de seguridad social. En paralelo a esta actualización, Meta ha anunciado nuevas pantallas de advertencia cuando alguien es añadido a grupos desconocidos. Medios como la BBC han reportado casos de menores agregados a grupos con adultos desconocidos que intentaban interactuar con ellos. Esto obliga a hablar de educación digital en casa y en colegios.Una herramienta más potente exige mayor conciencia del usuario.Qué va a pasar ahora? En las próximas semanas, la función se va a expandir más allá del programa beta. Primero seguirán siendo llamadas individuales. Luego, según los reportes, llegarán las llamadas grupales con hasta 32 participantes, además de enlaces de llamada y programación de reuniones.Para usuarios de Linux, esta noticia es especialmente útil. No existe una aplicación oficial de escritorio de WhatsApp para Linux. Ahora podrán llamar directamente desde el navegador sin depender del celular. También beneficia a personas que usan computadores corporativos donde no se pueden instalar aplicaciones externas.Si quieres probarlo antes, puedes entrar a WhatsApp Web, ir a Configuración, luego Ayuda y activar la opción de unirte al programa beta. No garantiza acceso inmediato, pero aumenta las probabilidades.Y aquí viene la parte práctica de servicio: revisa ya mismo en tu teléfono la opción “Quién puede añadirme a grupos”. Ve a Ajustes, Privacidad, Grupos, y selecciona “Mis contactos” o “Mis contactos excepto…”. Eso reduce el riesgo de ser añadido a chats desconocidos.La tecnología avanza. La responsabilidad también tiene que avanzar.WhatsApp supera los tres mil millones de usuarios activos mensuales según cifras recientes citadas por medios internacionales. Esa escala convierte cada pequeña actualización en un cambio global.El cifrado que protege estas llamadas está basado en el protocolo Signal, desarrollado originalmente por la organización Signal Foundation. Este sistema cifra los mensajes y llamadas en el dispositivo del emisor y solo se descifran en el dispositivo del receptor.La incorporación de llamadas en navegador también es parte de una tendencia mayor en la industria tecnológica: convertir el navegador en una plataforma completa de aplicaciones. Servicios como Google Meet y otras herramientas de colaboración ya funcionan sobre WebRTC. WhatsApp se suma a esa lógica.Al mismo tiempo, Meta ha anunciado nuevas pantallas de “resumen de seguridad” cuando alguien es agregado a un grupo desconocido. Esa pantalla muestra quién creó el grupo, cuántos miembros tiene y opciones para salir o reportar. La medida responde al aumento de intentos de estafas y fraudes digitales.Si tienes hijos o menores en casa, conviene conversar con ellos sobre no aceptar llamadas ni unirse a grupos de personas que no conocen. También es recomendable activar verificación en dos pasos y usar dispositivos con actualizaciones de seguridad vigentes.Tecnología y educación digital deben ir juntas.Resumen: WhatsApp Web añade llamadas cifradas en navegador. Útiles, pero requieren atención a seguridad y privacidad.Cuéntame qué opinas y sigue el pódcast en Flash Diario.BibliografíaGSM Arena 9to5GoogleWABetaInfo Forbes BBC ghacks Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Audífonos con cámaras, ¿por qué?

    Play Episode Listen Later Feb 10, 2026 14:43 Transcription Available


    Los próximos AirPods Pro podrían integrar cámaras infrarrojas para gestos, audio espacial y funciones de inteligencia artificialPor Félix Riaño @LocutorCoApple vuelve a mover el tablero de los audífonos inalámbricos. Varias filtraciones coinciden en una idea que, hasta hace poco, sonaba extraña: unos AirPods Pro capaces de “ver” el entorno. No se habla de cámaras para fotos o video, sino de sensores infrarrojos integrados en cada auricular. La promesa es clara: nuevos gestos con las manos, mejor audio espacial y una relación más estrecha con la inteligencia artificial de Apple.Las fuentes apuntan a un lanzamiento en 2026 y a un modelo que conviviría con los AirPods Pro actuales. El precio, el nombre y la fecha exacta siguen en discusión. La pregunta es directa: ¿para qué quiere Apple que tus audífonos vean lo que pasa a tu alrededor?SVer no es grabar, pero igual despierta dudas razonables.Las filtraciones parten de un nombre que ya suena familiar en el mundo Apple: Kosutami, un coleccionista de prototipos que suele mostrar piezas reales, aunque no siempre acierta en precios. Según sus mensajes, los próximos AirPods Pro “pueden ver alrededor”.A esto se suma lo dicho desde hace tiempo por el analista Ming-Chi Kuo, quien asegura que Apple trabaja en audífonos con al menos una cámara infrarroja. Estas cámaras no capturan imágenes tradicionales. Funcionan como sensores de profundidad, parecidos al sistema de puntos que usa Face ID en el iPhone.La idea no es nueva. Desde 2024 se habla de usar estos sensores para mejorar el audio espacial y la interacción con Apple Vision Pro. En 2025, Apple incluso recibió una patente relacionada con cámaras para detección de proximidad en dispositivos vestibles. Todo encaja en una misma dirección.Aquí aparece la confusión. ¿Estamos ante unos AirPods Pro 4 completamente nuevos o ante una versión “Pro más Pro” del modelo actual? Las fuentes no se ponen de acuerdo.Kosutami dice que el precio se mantendría en 249 dólares, unos 230 euros al cambio aproximado. Otros filtradores, como Instant Digital, creen que Apple va a lanzar una variante más cara, situada entre los AirPods Pro y los AirPods Max. Eso implicaría un precio cercano a 299 dólares, alrededor de 275 euros.También está el calendario. Apple suele esperar unos tres años entre grandes cambios de hardware. Los AirPods Pro 3 llegaron en 2025. Lanzar otro modelo en 2026 rompe esa costumbre. Por eso, muchos analistas creen que no será un reemplazo total, sino una opción adicional en la tienda.Lo que sí parece bastante firme es el para qué. Estas cámaras infrarrojas servirían para reconocer gestos con las manos, ajustar el sonido según el espacio y mejorar la precisión del audio espacial cuando se usan con Apple Vision Pro.También encajan con el discurso reciente de Tim Cook, que insiste en la “inteligencia visual” como parte del futuro de Apple Intelligence. Para que una inteligencia entienda el entorno, necesita sensores. Si no hay gafas inteligentes aún, los audífonos se vuelven un buen punto de partida.Hoy, lo cierto es esto: Apple no ha confirmado nada. Lo probable es que veamos un modelo con sensores infrarrojos en 2026, presentado en el evento de septiembre junto al iPhone. El nombre y el precio siguen abiertos, pero la dirección tecnológica ya está bastante marcada.El contexto ayuda a entender la jugada. Apple ya vende audífonos en varios escalones: modelos básicos, AirPods 4 en dos versiones, AirPods Pro y AirPods Max. Añadir una variante avanzada de los Pro encaja con esa estrategia.Además, el mercado de audífonos premium está creciendo. Marcas como Bang & Olufsen, Bose y Bowers & Wilkins empujan precios altos con funciones avanzadas. Apple necesita diferenciarse con algo más que cancelación de ruido.Es importante aclarar algo para niños y adultos: estas cámaras no graban video ni toman fotos. Son sensores infrarrojos que detectan luz y movimiento para calcular distancia y forma. Funcionan en segundo plano y alimentan algoritmos, no galerías de imágenes.También es cierto que Apple ya experimentó con actualizaciones intermedias. Los AirPods Pro 2 recibieron cambios importantes sin cambiar de nombre. Así que una versión “AirPods Pro 3 con sensores” no sería extraña dentro de su historia reciente.SeparadorLos próximos AirPods Pro podrían sumar sensores infrarrojos para gestos, audio espacial y funciones de Apple Intelligence. Hoy son filtraciones bien respaldadas, pero siguen siendo rumores. Vamos a estar atentos a 2026.Cuéntame qué te parece esta idea y sigue Flash Diario en SpotifyApple planea AirPods Pro con sensores infrarrojos para gestos, audio espacial e inteligencia artificial, según varias filtraciones coincidentes.Separador

    La pausa asiática que afecta a la IA

    Play Episode Listen Later Feb 9, 2026 10:14 Transcription Available


    Samsung se prepara para enviar HBM4 tras el Año Nuevo Lunar y acelerar la memoria para IAPor Félix Riaño @LocutorCoEl 9 de febrero de 2026, las fábricas de semiconductores en Corea del Sur están operando bajo un calendario especial. El Año Nuevo Lunar, conocido localmente como Seollal, se celebrará el 17 de febrero y los feriados oficiales se extenderán del 16 al 18 de febrero. Durante esos días, gran parte de la actividad industrial del país se detendrá o funcionará de forma limitada. En ese contexto, Samsung Electronics ha confirmado que retomará a pleno ritmo la producción justo después del feriado para comenzar los primeros envíos comerciales de su memoria HBM4 a Nvidia. Esta memoria está destinada a los próximos aceleradores de inteligencia artificial de Nvidia y su calendario de producción está directamente condicionado por esta pausa anual, una de las más relevantes del año para la industria tecnológica asiática.La inteligencia artificial depende de calendarios industriales muy concretosLa inteligencia artificial moderna funciona gracias a centros de datos que procesan enormes volúmenes de información de manera constante. En el núcleo de esos sistemas están los procesadores diseñados por Nvidia, una empresa estadounidense especializada en unidades de procesamiento gráfico, conocidas como GPU. Estos chips destacan por realizar muchos cálculos al mismo tiempo, pero su rendimiento depende directamente de la memoria que los alimenta. High Bandwidth Memory, o HBM, es un tipo de memoria creada para ese propósito. A diferencia de la memoria tradicional, HBM se apila en capas y se coloca muy cerca del procesador, lo que permite mover datos con mayor velocidad y menor consumo energético. La tecnología ha evolucionado por etapas: HBM, HBM2, HBM2E, HBM3, HBM3E y ahora HBM4. Cada generación responde al aumento de demanda provocado por modelos de inteligencia artificial cada vez más grandes. Samsung Electronics ha desarrollado HBM4 usando su proceso DRAM 1c, de sexta generación en la clase de diez nanómetros, junto con una base lógica fabricada con tecnología de cuatro nanómetros.La transición hacia HBM4 ocurre tras un periodo complejo para Samsung. En la generación anterior, HBM3E, la empresa no logró posicionarse con la misma rapidez que SK hynix, otra compañía surcoreana especializada en memoria. SK hynix consiguió convertirse en el principal proveedor de HBM para Nvidia y capturó la mayor parte de los contratos vinculados al auge de la inteligencia artificial. Micron Technology, fabricante estadounidense de memoria, quedó en una posición secundaria en esta categoría. Mientras la demanda de inteligencia artificial siguió creciendo, la capacidad mundial de fabricación de memoria se volvió un recurso limitado. Este problema se agrava cada año alrededor del Año Nuevo Lunar, cuando fábricas en Corea del Sur, China y otros países asiáticos reducen su actividad durante varios días. Esa pausa afecta cadenas de suministro globales y obliga a planificar con precisión qué se fabrica antes y qué se entrega después del feriado.Ante esta situación, Samsung ha organizado su calendario para que la producción y los envíos de HBM4 comiencen inmediatamente después del Seollal. En su complejo industrial de Pyeongtaek, uno de los mayores centros de fabricación de semiconductores del mundo, la empresa está ampliando la línea P4 para producir entre cien mil y ciento veinte mil obleas al mes dedicadas a HBM4. Sumadas a otras líneas, el objetivo es alcanzar alrededor de doscientas mil obleas mensuales, una parte relevante de su producción total de DRAM. Los primeros envíos a Nvidia están previstos para la tercera semana de febrero, en línea con los planes de Nvidia para presentar su nueva plataforma de aceleradores de inteligencia artificial, llamada Vera Rubin, durante la conferencia GTC 2026, programada para marzo. Aunque los analistas estiman que SK hynix mantendrá una mayor cuota de suministro, llegar temprano al mercado permite a Samsung reforzar su posición técnica y comercial.HBM4 introduce mejoras relevantes en eficiencia energética frente a la generación anterior. Esto resulta especialmente importante para centros de datos que operan de forma continua, donde el consumo eléctrico y la refrigeración representan una parte considerable de los costos. Nvidia necesita este tipo de memoria para alcanzar anchos de banda totales superiores a los veinte terabytes por segundo en sus sistemas más avanzados. Sin HBM4, ese nivel de rendimiento no sería viable. Al mismo tiempo, el énfasis de los fabricantes en producir HBM reduce la oferta de memoria convencional para computadores personales y dispositivos móviles, lo que mantiene presión sobre los precios. En este contexto, los fabricantes de memoria ya no influyen solo en componentes, sino en el ritmo general de la innovación tecnológica.)A días del Año Nuevo Lunar, Samsung se prepara para activar la producción y los envíos de HBM4 a Nvidia. Esta memoria será una pieza central de los próximos sistemas de inteligencia artificial. El calendario industrial asiático vuelve a marcar el ritmo global. Escucha más historias como esta y sigue Flash Diario en Spotify.A días del Año Nuevo Lunar, Samsung se alista para enviar HBM4 a Nvidia y acelerar la inteligencia artificial.

    Android rompe el muro de AirDrop

    Play Episode Listen Later Feb 6, 2026 11:24 Transcription Available


    Google va a llevar Quick Share compatible con AirDrop a más móviles Android en 2026Por Félix Riaño @LocutorCoGoogle acaba de confirmar algo que muchas personas llevaban años esperando. La función de compartir archivos entre Android y dispositivos de Apple va a dejar de ser exclusiva de los Pixel 10. Durante una rueda de prensa en Taipéi, Google explicó que Quick Share, con compatibilidad directa con AirDrop, va a llegar a muchos más móviles Android a lo largo de 2026.Esto significa que enviar fotos, vídeos o documentos desde un Android a un iPhone, un iPad o un Mac va a ser tan directo como hoy lo es entre dos iPhone. Sin cables, sin cuentas intermedias y sin aplicaciones extra. Hasta ahora, esta experiencia estaba reservada a una sola familia de teléfonos. Esa etapa se va a terminar. ¿Estamos ante el inicio del fin de una de las barreras más famosas del ecosistema de Apple?La compatibilidad funciona, pero Apple mantiene reglas que aún limitan la experienciaPara entender la noticia hay que volver a finales de 2025. En ese momento, Google sorprendió al mundo tecnológico al permitir que los Pixel 10 enviaran archivos directamente a iPhone, iPad y MacBook usando AirDrop. Fue un movimiento inesperado, porque Apple siempre había protegido esta función como una ventaja cerrada de su ecosistema.Google lo logró integrando esta compatibilidad dentro de Quick Share, el sistema oficial de intercambio de archivos de Android. El resultado fue una transferencia directa, local y rápida, sin pasar por la nube. La clave estuvo en una decisión técnica silenciosa: Google convirtió Quick Share en una aplicación completa, actualizable desde Play Store. Desde ahí, el camino para expandir la función ya estaba preparado.Durante 2025, el equipo de Android dedicó meses a comprobar que la función funcionara bien con iPhone, iPad y Mac. Esa fase ya terminó.El problema hasta ahora era evidente. Aunque la tecnología funcionaba, estaba limitada a los Pixel 10. Para la mayoría de usuarios Android, AirDrop seguía siendo algo lejano. En casas, escuelas y trabajos donde conviven Android y Apple, compartir archivos seguía siendo incómodo. Fotos enviadas por mensajería con pérdida de calidad. Documentos reenviados por correo. Cables que aparecen cuando nadie los quiere usar.Apple ha usado AirDrop durante años como una ventaja silenciosa. No se anuncia mucho, pero quien lo usa sabe lo cómodo que es. Google lo sabe y por eso apunta directamente a ese punto. Google ha citado que Android cuenta con más de tres mil millones de dispositivos activos en el mundo, mientras Apple supera los dos mil millones. Si una pequeña parte de esos equipos empieza a compartir archivos de forma directa entre plataformas, el impacto va a ser enorme.El reto no es técnico solamente. También hay temas de privacidad, permisos y controles visibles para el usuario.Eric Kay, vicepresidente de ingeniería de Android, confirmó que en 2026 Quick Share compatible con AirDrop va a llegar a “muchos más dispositivos”. Eric Kay explicó que Google ya demostró que la función es estable y segura, y que Google ahora está trabajando con fabricantes de Android para integrarla en más modelos. Los anuncios, según Eric Kay, van a llegar “muy pronto”.Algunos nombres ya aparecen en el radar. Nothing ha confirmado que está trabajando en esta compatibilidad. Qualcomm también ha dejado claro que los móviles con procesadores Snapdragon van a estar preparados para usar esta función. Esto apunta a una expansión amplia, tanto en gamas medias como altas.La distribución mediante Play Store permite a Google actualizar Quick Share sin depender de grandes actualizaciones del sistema. Eso acelera el proceso y abre la puerta a que móviles recientes puedan recibir la función sin esperar años. El envío seguirá siendo local, usando Bluetooth para detectar dispositivos cercanos y Wi-Fi para transferir archivos grandes a alta velocidad.Hay un contexto más amplio detrás de esta historia. En Europa, la Ley de Mercados Digitales ha empujado a Apple a adoptar estándares más abiertos como Wi-Fi Aware. Este sistema permite que dispositivos cercanos se descubran y se comuniquen sin depender de soluciones propietarias. Google aprovechó este escenario para hacer compatible Quick Share con AirDrop sin colaboración directa de Apple.Eso sí, existen límites. Para recibir archivos desde Android, los usuarios de iPhone deben activar la opción “Todos durante diez minutos” en AirDrop. Las opciones basadas en contactos siguen siendo exclusivas del entorno Apple. Aun así, el simple hecho de que la transferencia funcione ya cambia la dinámica.Google también confirmó que va a mejorar las herramientas para cambiar de iPhone a Android. Google quiere facilitar el traslado de fotos, vídeos y datos personales de forma directa entre dispositivos. Todo apunta a una estrategia más amplia: reducir la fricción entre ecosistemas y hacer que la elección de un móvil no determine con quién puedes compartir archivos.Quick Share compatible con AirDrop va a dejar de ser un truco exclusivo del Pixel 10. Google va a llevar esta función a muchos más móviles Android en 2026. Compartir archivos entre Android y Apple va a ser más fácil y directo. Cuéntame qué opinas y sigue Flash Diario en Spotify.BibliografíaThe Mac Observer: Google confirma expansión de Quick Share con AirDropAndroid Authority: Google amplía AirDrop en AndroidArs Technica: Google insinúa gran expansión de AirDrop en Android9to5Google: Google adelanta anuncios sobre AirDrop en AndroidDroid Life: AirDrop para Android llegará a más móvilesConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Por qué Artemis II se aplaza otra vez

    Play Episode Listen Later Feb 5, 2026 10:05 Transcription Available


    Fugas de hidrógeno retrasan Artemis IILa misión Artemis II de la NASA se retrasa hasta marzo tras detectar fugas de hidrógeno en una prueba decisiva del cohete lunar.Por Félix Riaño @LocutorCoLa misión Artemis II busca llevar astronautas alrededor de la Luna por primera vez en más de cincuenta años. Para lograrlo, la NASA necesita que cada parte del sistema funcione con total precisión antes del despegue. Por eso realiza pruebas largas y complejas, diseñadas para encontrar errores cuando todavía no hay personas a bordo.En una de esas pruebas, realizada a inicios de febrero, volvió a aparecer un problema que ya había causado dolores de cabeza en el pasado: fugas de hidrógeno líquido durante el llenado del cohete. El fallo obligó a detener la cuenta regresiva simulada y a aplazar el lanzamiento, al menos, un mes.Esto genera una pregunta lógica para cualquier oyente: si este problema ya ocurrió hace tres años, ¿por qué vuelve a repetirse ahora? Y más importante aún: ¿qué tan seguro es enviar personas a la Luna con este tipo de contratiempos?El problema no es nuevo, pero el contexto sí cambió.La prueba que falló se llama wet dress rehearsal, algo así como un ensayo general completo. En esta prueba, el cohete se llena con combustible real y se simula toda la cuenta regresiva, desde horas antes del lanzamiento hasta los últimos minutos previos al encendido.El protagonista de esta historia es el Space Launch System, o SLS, el cohete más potente que ha construido la NASA. Funciona con dos combustibles principales: oxígeno líquido e hidrógeno líquido. Este último se mantiene a unos doscientos cincuenta y tres grados bajo cero, una temperatura tan extrema que vuelve frágiles muchos materiales.Durante el ensayo, los tanques del SLS lograron llenarse casi por completo. Ese paso ya es una victoria técnica. Pero cuando el reloj simulado entró en los últimos minutos, los sensores detectaron una acumulación peligrosa de hidrógeno en una conexión entre el cohete y la plataforma de lanzamiento. Por seguridad, el sistema detuvo todo.Para entender el problema hay que hablar del hidrógeno. Es el elemento más pequeño que existe. Sus moléculas son tan diminutas que pueden escaparse por rendijas microscópicas, incluso en sistemas diseñados con enorme cuidado. Además, es muy inflamable. Por eso, cualquier fuga activa protocolos automáticos de seguridad.Este mismo tipo de fuga ocurrió durante Artemis I, la misión sin tripulación lanzada en 2022. En aquel momento, el cohete tuvo que regresar varias veces al edificio de ensamblaje para reparaciones, lo que retrasó el vuelo durante meses.Ahora, con Artemis II, la situación es parecida, pero no idéntica. Cada cohete SLS es prácticamente único. No se fabrican en serie. Además, este cohete fue trasladado desde el edificio de ensamblaje hasta la plataforma recorriendo unos seis kilómetros a menos de dos kilómetros por hora. Durante ese trayecto, las vibraciones pueden afectar sellos y alineaciones. Este es el primer contacto real de este vehículo con combustibles criogénicos, y eso revela comportamientos que no siempre aparecen en pruebas de laboratorio.A diferencia de lo ocurrido en Artemis I, los ingenieros creen que esta vez las reparaciones se pueden hacer directamente en la plataforma de lanzamiento. Eso evita un retroceso mayor en el calendario. El plan ahora es desmontar el sello afectado, analizarlo pieza por pieza y repetir el ensayo completo.Mientras tanto, la tripulación —Reid Wiseman, Victor Glover, Christina Koch y el astronauta canadiense Jeremy Hansen— ha salido de la cuarentena médica y continúa entrenando. Ellos volarán dentro de la nave Orion, diseñada para proteger a personas en el espacio profundo durante un viaje de diez días alrededor de la Luna.Esta misión no va a aterrizar. Su función es comprobar que los sistemas de vida, navegación y comunicación funcionan lejos de la Tierra. Todo esto es un paso necesario antes de intentar regresar a la superficie lunar con Artemis III.Estos retrasos también ayudan a entender cómo funciona hoy la exploración espacial. En los años del programa Apolo, los lanzamientos eran frecuentes. Hoy, cada vuelo del SLS ocurre con años de diferencia. Eso significa que cada prueba es casi un reencuentro con sistemas complejos que llevan tiempo sin operar juntos.Las pruebas están diseñadas para fallar en tierra y no en el espacio. Detectar una fuga ahora permite corregirla antes de subir personas al cohete. Desde la perspectiva de la NASA, aplazar un lanzamiento es una decisión responsable.Artemis no es una carrera de velocidad. Es un programa pensado para décadas, con socios internacionales y la idea de una presencia humana sostenida alrededor y sobre la Luna. Cada ensayo, incluso los que terminan en retrasos, aporta información real que no se puede obtener de otra forma.Artemis II se retrasa por fugas de hidrógeno detectadas en una prueba clave. El problema es conocido, complejo y manejable. La misión sigue adelante con más datos y más cautela.Te invitamos a reflexionar sobre estos pasos previos y a seguir Flash Diario en Spotify para entender cómo avanza el regreso humano a la Luna.Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    El nuevo CEO que viene de los parques

    Play Episode Listen Later Feb 4, 2026 9:17 Transcription Available


    Disney nombra a Josh D'Amaro como CEO y apuesta por parques, videojuegos e inteligencia artificial para conquistar nuevas generacionesPor Félix Riaño @LocutorCoDisney acaba de tomar una decisión que habla mucho de hacia dónde va la cultura digital del entretenimiento. La junta directiva anunció que Josh D'Amaro, veterano de casi tres décadas y jefe de parques y experiencias, va a asumir como nuevo director ejecutivo el 18 de marzo. El relevo pone fin a una búsqueda larga y observada por toda la industria. Bob Iger, figura central del Disney moderno, va a quedarse como asesor hasta finales de año y luego se va a retirar. La pregunta que flota es sencilla y potente: ¿qué significa que Disney elija a un líder formado en parques, viajes y experiencias físicas, en un momento donde la pantalla, la IA y los videojuegos marcan el ritmo cultural?Cuando Disney crece más viajando que contando historias en pantallaDurante años, Disney fue vista como una fábrica de historias para cine y televisión. Hoy, los números cuentan otra cosa. La división que dirigía Josh D'Amaro genera cerca de 36.000 millones de dólares al año y aporta alrededor del sesenta por ciento de las ganancias. Parques, cruceros, hoteles y productos licenciados pesan más que películas y series. Esa realidad explica por qué la junta votó de forma unánime por D'Amaro.El cambio también llega acompañado de una novedad histórica. Dana Walden va a convertirse en la primera directora creativa global en los 103 años de la empresa. Su tarea va a ser cuidar que cada historia, en cualquier formato, respete el espíritu Disney. Estamos ante un rediseño del poder interno que mezcla experiencia física, narrativa y tecnología.El contexto no es sencillo. El negocio tradicional de la televisión sigue perdiendo fuerza. El streaming compite en un mercado saturado. Plataformas como Netflix, YouTube y TikTok marcan hábitos nuevos, sobre todo entre adolescentes y jóvenes adultos. Disney necesita atraer a esas audiencias sin romper el vínculo con familias que llevan generaciones creciendo con sus personajes.A esto se suma la llegada de la inteligencia artificial. Disney ya anunció un acuerdo con OpenAI para llevar personajes al entorno de Sora, una apuesta que abre debates sobre creatividad, derechos y empleo. El reto para D'Amaro va a ser equilibrar innovación, negocio y valores, en medio de un cambio cultural profundo.La señal que manda Disney es clara. La empresa va a apostar por experiencias completas. Historias que no viven solo en una pantalla, sino que se recorren, se juegan y se comparten. La inversión en un universo conectado con Fortnite va en esa dirección. Parques que dialogan con videojuegos. Series que alimentan atracciones. Tecnología que amplía mundos conocidos.D'Amaro llega con fama de gestor cercano y de entender cómo se construye emoción en el mundo físico. Walden va a cuidar el relato. Iger va a acompañar la transición. Disney entra así en una etapa donde la cultura digital se cruza con el viaje, el juego y la inteligencia artificial. No es un giro pequeño. Es una redefinición de lo que significa entretener en el siglo veintiuno.Si miramos la historia, Disney siempre ha cambiado de piel cuando la cultura lo exigía. En los años treinta apostó por la animación sonora. En los cincuenta llevó sus historias a la televisión. En los noventa construyó imperios de franquicias. En la década pasada compró estudios para acumular propiedad intelectual. Ahora, el énfasis se mueve hacia la experiencia.Los parques recibieron cerca de ciento cuarenta y cinco millones de visitantes en 2024. La flota de cruceros sigue creciendo. Hay un parque en construcción en Abu Dabi, el primero en Medio Oriente. Al mismo tiempo, Disney prepara servicios deportivos directos al consumidor y ajusta su oferta de streaming.Desde la perspectiva de la cultura digital, esto refleja una idea potente: las audiencias ya no quieren solo mirar. Quieren participar, recorrer, personalizar y jugar. Disney está reorganizando su liderazgo para responder a ese deseo.Disney eligió a Josh D'Amaro para liderar una etapa donde experiencia, tecnología y relato van juntos. El cambio dice mucho sobre el futuro del entretenimiento. Cuéntanos qué piensas de esta decisión y acompáñanos cada día siguiendo Flash Diario en Spotify.

    ¿PlayStation sin botones?

    Play Episode Listen Later Feb 3, 2026 9:05 Transcription Available


    Sony patenta un control sin botones físicos para PlayStation 6 basado en pantallas táctiles y vibraciónPor Félix Riaño @LocutorCoSony vuelve a mover el tablero con una patente que ha hecho ruido entre jugadores y desarrolladores. El documento describe un control para la futura PlayStation 6 que elimina los botones físicos y los reemplaza por superficies táctiles con respuesta háptica. La idea es que cada persona pueda colocar los botones donde quiera, cambiar su tamaño y adaptar el mando a cada juego o a cada mano. La patente fue registrada en 2023 y aprobada el 27 de enero de 2026, y fue detectada por medios especializados como Video Games Chronicle.La propuesta suena futurista, pero también despierta dudas. Muchos jugadores recuerdan lo difícil que es jugar con controles táctiles en pantallas planas. Otros ven aquí una puerta abierta a la accesibilidad y a nuevas formas de jugar. ¿Está Sony probando el camino del control del futuro o solo protegiendo una idea que nunca veremos en tiendas?La idea emociona, pero muchos jugadores no quieren perder botones reales.La patente se titula “Dispositivos y métodos para un control de videojuegos”. En los dibujos se ve un mando con forma conocida, parecida al DualSense, pero sin cruceta, sin botones frontales y sin palancas físicas. En su lugar, hay dos grandes superficies táctiles configurables.Sony explica que los controles tradicionales tienen una limitación: su diseño fijo. Los botones siempre están en el mismo lugar, con el mismo tamaño, pensados para una mano promedio que no existe en la vida real. Con este nuevo concepto, cada persona podría mover los botones, agrandarlos, reducirlos o incluso eliminarlos según el juego.Además, el sistema detectaría gestos como toques, deslizamientos, presión, pellizcos y hasta la cercanía del dedo antes de tocar la superficie. Todo acompañado por vibraciones y relieves que ayudarían a “sentir” dónde está cada control.Aquí aparece el gran debate. Jugar sin botones físicos cambia por completo la relación entre manos y cerebro. Cuando usas un mando tradicional, no necesitas mirar tus dedos. La memoria muscular hace el trabajo. En una superficie táctil, ese punto de referencia desaparece.Muchos jugadores ya han probado controles táctiles en teléfonos y saben que es fácil fallar un toque en medio de una escena rápida. Sony propone resolver esto con vibración avanzada y superficies que cambian de forma, pero no está claro si eso va a reemplazar la sensación de un botón real.También existe el temor de los toques accidentales. En los años noventa hubo controles táctiles que movían al personaje solo por apoyar el dedo. La patente menciona sensores de presión y calor para diferenciar un descanso de una orden, pero todo sigue en el terreno de la teoría.Este tipo de ideas no aparecen de la nada. Sony lleva más de una década usando superficies táctiles en sus mandos. El panel central del DualSense existe desde 2013. Esta patente parece una expansión extrema de ese concepto.Al mismo tiempo, el mercado ya ofrece soluciones más conservadoras. Controles modulares con botones intercambiables permiten adaptar el mando sin perder el contacto físico. Muchos jugadores prefieren ese camino.La gran pregunta es qué va a hacer Sony con esta patente. Registrar una idea no significa lanzarla al mercado. Puede ser un plan a largo plazo, una opción alternativa para ciertos jugadores o simplemente una forma de bloquear a la competencia. Con PlayStation 6 todavía lejos, hay tiempo para probar, descartar o combinar ideas.La discusión también toca el tema de accesibilidad. Un mando sin botones fijos podría ayudar a personas con movilidad reducida o con manos más pequeñas o más grandes de lo habitual. Ajustar el tamaño y la posición de los controles por perfil de usuario abre posibilidades que hoy no existen en un mando estándar.En este punto, es imposible no pensar en el control adaptativo de Xbox, que apuesta por botones físicos externos y configurables. Sony parece explorar el extremo opuesto: menos piezas, más software y más sensores.También hay un factor generacional. Jugadores jóvenes crecen usando pantallas táctiles desde la infancia. Para ellos, este tipo de interacción puede resultar natural. Para jugadores veteranos, puede sentirse extraña.Todo esto ocurre en un contexto complejo. Los costos de memoria y componentes siguen altos, y la industria del hardware avanza con cautela. Tal vez este mando nunca llegue. Tal vez llegue como opción secundaria. O tal vez termine mezclando botones físicos y pantallas. Hoy, la patente solo nos deja una pista del laboratorio de ideas de Sony.Sony imagina un control sin botones físicos para PlayStation 6, basado en pantallas táctiles y vibración avanzada. La idea abre posibilidades de personalización y accesibilidad, pero también genera dudas entre jugadores tradicionales.Cuéntame qué opinas y sigue Flash Diario en Spotify para más historias de tecnología y videojuegos.BibliografíaGamesRadarT3 ComicBook TechPowerUp Video Games Chronicle Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    IA traza ruta en Marte

    Play Episode Listen Later Feb 2, 2026 12:40 Transcription Available


    NASA y Anthropic probaron Claude para planear rutas del rover Perseverance en Marte.Por Félix Riaño @LocutorCoEn Marte, manejar un rover no se parece a jugar con un control. La señal tarda varios minutos en ir y volver entre la Tierra y Marte, así que nadie puede “conducir en vivo”. Por eso, el equipo de la NASA prepara cada recorrido con antelación, como si dibujara un camino con migas de pan: una lista de puntos, llamados “waypoints”, que el rover va siguiendo.Ahora pasó algo nuevo: la NASA y el equipo del Laboratorio de Propulsión a Chorro, el JPL, usaron un modelo de inteligencia artificial de Anthropic, llamado Claude, para proponer ese camino antes de enviarlo. Y no fue una prueba de juguete: Perseverance recibió esas instrucciones y avanzó en el cráter Jezero, en dos recorridos hechos el 8 y el 10 de diciembre de 2025.La pregunta que queda flotando es directa: si una IA ayuda a planear rutas en Marte, ¿qué otras tareas lentas y delicadas va a empezar a asumir en misiones espaciales?La IA dibuja el camino, pero humanos revisan cada paso.Vamos a ubicar la escena. Perseverance es un rover de seis ruedas, del tamaño de un carro pequeño, que explora el cráter Jezero desde febrero de 2021. Su meta grande es científica: estudiar rocas, buscar pistas sobre el pasado de Marte y guardar muestras para que, algún día, puedan llegar a la Tierra. Para lograr eso, Perseverance tiene que moverse por terrenos difíciles: piedras sueltas, campos de rocas, ondulaciones de arena, y pendientes que pueden hacer que las ruedas patinen.En la Tierra, el equipo del JPL suele mirar imágenes tomadas desde órbita y también fotos del propio rover. Con eso marcan una ruta segura y escriben comandos que se envían a Marte. En esta prueba, una IA con capacidad de “ver” analizó imágenes de alta resolución de la cámara HiRISE, que va a bordo del orbitador Mars Reconnaissance Orbiter. Además, usó modelos digitales de elevación, que son mapas en 3D del terreno para medir pendientes.Con esa información, la IA propuso un camino continuo, con waypoints. Después, los ingenieros pasaron esas instrucciones por un “gemelo digital”, una simulación del rover, para comprobar más de quinientas mil variables de telemetría. Ahí revisan cosas como posición estimada, riesgos de obstáculos y límites del software de vuelo.Ahora vamos al problema de fondo: planear rutas consume tiempo humano. Y en misiones espaciales, el tiempo es oro, porque cada sol —cada día marciano— tiene ventanas de trabajo limitadas. Si el equipo se queda horas dibujando un trayecto, queda menos espacio para decidir qué roca analizar, qué muestra guardar, o qué experimento hacer.También hay un riesgo que asusta a cualquier ingeniero: que el rover quede atrapado. La historia de Marte ya tiene cicatrices. Spirit, un rover anterior de la NASA, quedó atascado en arena en 2009 y no volvió a moverse. Nadie quiere repetir eso con un vehículo que vale muchísimo dinero y años de trabajo. Por eso, aunque suene tentador delegar a una IA, el listón de seguridad es altísimo.Y aquí aparece otra tensión: una IA puede proponer un camino “lógico” según las imágenes de arriba, pero puede no ver detalles del suelo que sí revelan las cámaras a ras de terreno. En esta prueba, el equipo humano tuvo acceso a imágenes del suelo que la IA no había usado al planear, y por eso ajustó pequeños tramos.Vamos con lo que pasó, paso a paso, para que se entienda sin tecnicismos raros. El 8 de diciembre de 2025, Perseverance hizo un recorrido de doscientos diez metros usando waypoints propuestos por IA. Dos días después, el 10 de diciembre, avanzó doscientos cuarenta y seis metros con el mismo enfoque. Sumados, son cuatrocientos cincuenta y seis metros en esos dos recorridos. En varias notas periodísticas se resume como “alrededor de cuatrocientos metros” porque se habla del tramo de la demostración como un bloque.Pero Perseverance no es un carro que sigue una línea pintada. El rover tiene un sistema llamado AutoNav, que toma decisiones en tiempo real mientras avanza. AutoNav puede ajustar el trayecto para rodear una piedra o evitar una zona fea, incluso si el camino predefinido decía otra cosa. Por eso, cuando la NASA mostró la comparación entre la ruta planeada y la ruta real, se ven diferencias pequeñas: la idea general se mantiene, pero el rover corrige al vuelo.Lo más interesante es el método de trabajo. La IA no “mandó” el rover sola. Propuso la ruta con waypoints y comandos, y el equipo humano revisó, simuló y retocó antes de enviar. Ese es el punto: automatización con supervisión fuerte. Según lo reportado, el equipo estima que este tipo de apoyo puede reducir a la mitad el tiempo de planeación de rutas. Eso no significa menos cuidado. Significa que la parte repetitiva puede tomar menos horas, y el equipo puede dedicar más energía al análisis científico.Vamos a ampliar el contexto para que esta noticia tenga más sentido. Primero, hablemos de por qué HiRISE importa. Esa cámara, en órbita, toma imágenes de gran detalle de la superficie marciana. Con esas fotos, los equipos pueden ver patrones de terreno y detectar zonas peligrosas. Si a eso le sumas modelos digitales de elevación, ya no es solo “ver una foto”: es medir pendientes y entender si el rover va a quedar inclinado o si una rueda puede perder tracción.Segundo, hay un detalle de “lenguaje” que suena raro, pero es útil: la NASA usa formatos específicos para mandar comandos. En este caso se menciona Rover Markup Language, o RML, un lenguaje basado en XML. En internet, los modelos públicos pueden no mostrar ejemplos de ese lenguaje, porque no hay un estándar ampliamente publicado. Pero dentro del entorno de trabajo, con datos y herramientas internas, la IA sí pudo generar instrucciones que luego se verificaron. Ese contraste es una enseñanza: el mismo modelo puede comportarse distinto según el acceso a información, a formatos y a herramientas.Tercero, esto conecta con una tendencia mayor en robótica: modelos visión-lenguaje-acción. En palabras simples: sistemas que ven, describen lo que ven y luego actúan. En la Tierra ya se usan en fábricas y laboratorios. En el espacio, el premio es enorme porque la distancia obliga a que los robots sean más autónomos. Si una sonda está lejos, la latencia hace que esperar instrucciones sea lento. Por eso la NASA habla de un futuro donde estas técnicas ayuden a recorridos de kilómetros, y también a detectar “cosas interesantes” para ciencia, revisando montañas de imágenes.Y un dato extra para aterrizar la escala: Perseverance lleva años recorriendo Marte y ya se acerca a distancias acumuladas que, para un robot en otro planeta, son una hazaña de ingeniería. Esa experiencia de manejo, sumada a AutoNav, crea el escenario perfecto para probar IA en la parte de planeación. No es un salto al vacío. Es un paso medido, con frenos, simulación y revisión humana.La NASA ya probó rutas planeadas por IA para Perseverance en Marte, con revisión humana y simulación antes de enviar comandos. El rover avanzó en diciembre de 2025 y AutoNav ajustó detalles en marcha. Esto puede ahorrar tiempo de planeación y abrir espacio para más ciencia. Cuéntame: ¿te da confianza esta idea? Sigue Flash Diario en Spotify.Bibliografia:The RegisterNASA Jet Propulsion LaboratoryNASAEngadgetAnthropicNASA ScienceNASAWATCHIFLScienceConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    El plan secreto de Apple para hablar sin voz

    Play Episode Listen Later Jan 30, 2026 13:30 Transcription Available


    Apple compra Q.ai por hasta dos mil millones y apuesta por IA silenciosa para Siri y AirPodsPor Félix Riaño @LocutorCoApple acaba de hacer una de las compras más grandes de su historia reciente y casi nadie lo vio venir. La empresa de la manzana adquirió la startup israelí Q.ai, una compañía que llevaba más de tres años trabajando en silencio, sin mostrar productos y sin hacer ruido mediático. El valor estimado del acuerdo ronda entre mil quinientos y dos mil millones de dólares, una cifra que la convierte en la segunda adquisición más costosa de Apple, solo por detrás de Beats en dos mil catorce.Q.ai se dedica a algo muy particular: enseñar a las máquinas a entendernos sin que tengamos que hablar en voz alta. Su tecnología combina aprendizaje automático, análisis de audio y seguimiento de movimientos faciales. Apple no ha explicado aún dónde va a usar estas ideas, pero las pistas apuntan a Siri, a los AirPods y a los visores de realidad mixta.Una compra tecnológica que abre posibilidades… y también dudas razonables.Q.ai nació en dos mil veintidós, fundada por Aviad Maizels, Yonatan Wexler y el doctor Avi Barliya. Desde el inicio decidieron trabajar en modo sigiloso. Nada de presentaciones públicas, nada de demos abiertas. La idea era desarrollar una tecnología capaz de interpretar la comunicación humana más allá de la voz tradicional.Los inversionistas que apostaron temprano por Q.ai sabían que no era un proyecto sencillo. Fondos como GV, Kleiner Perkins y Spark acompañaron el proceso con paciencia y con dinero suficiente para investigar a fondo. Para ellos, el valor no estaba en lanzar rápido un producto, sino en resolver un problema profundo: cómo lograr que los dispositivos entiendan a las personas en entornos reales, con ruido, con distracciones y con limitaciones sociales.Apple observó ese trabajo durante años. Ahora decide integrar al equipo completo y llevar esa investigación directamente a sus productos, desde audífonos hasta sistemas de inteligencia artificial personal.Hablar con asistentes de voz sigue siendo incómodo para muchas personas. En una casa compartida, en una oficina, en el transporte público o en una cafetería, usar la voz en alto genera incomodidad. Por eso, aunque la inteligencia artificial avanza rápido, la mayoría de usuarios termina escribiendo en pantallas pequeñas.Q.ai se enfocó justo en ese bloqueo cotidiano. Según patentes analizadas por medios tecnológicos, su sistema usa sensores ópticos para detectar micro movimientos en labios, mejillas y mandíbula. Esos movimientos se traducen en palabras o comandos, incluso cuando el sonido es mínimo o casi inexistente.El desafío técnico es enorme. La cara humana se mueve de forma distinta en cada persona, cambia con la luz, con la barba, con gafas o con el cansancio. Lograr precisión en ese contexto exige modelos complejos, entrenamiento largo y mucha prueba y error. A eso se sumó un contexto social duro: cerca del treinta por ciento del equipo fue llamado al servicio militar en Israel durante dos mil veintitrés, lo que interrumpió rutinas y obligó a trabajar bajo presión constante.Apple decide comprar Q.ai justo cuando su estrategia de inteligencia artificial necesita un impulso. Siri ha tenido retrasos y comparaciones incómodas frente a otros asistentes. Integrar una tecnología que permita hablar en susurros, o incluso sin sonido, cambia las reglas del juego.Los analistas creen que esta tecnología puede llegar primero a los AirPods, combinando micrófonos, sensores y algoritmos para entender al usuario en medio del ruido. También se menciona su posible uso en el Vision Pro, donde la interacción silenciosa resulta casi obligatoria.Aviad Maizels ya conoce este camino. En dos mil trece vendió PrimeSense a Apple, una compra que terminó dando vida al Face ID. Hoy repite la historia con una tecnología aún más invisible. Apple, por su parte, apuesta por una idea sencilla: que la computación se adapte a nosotros, y no al revés.El tamaño de la compra dice mucho. Beats costó tres mil millones de dólares y cambió el negocio de audio de Apple. Q.ai, con una cifra cercana a los dos mil millones, apunta a cambiar la forma de interactuar con la inteligencia artificial. No se trata de un modelo de lenguaje nuevo, sino de una nueva interfaz humana.Medios como TechCrunch y CNBC explican que Q.ai también trabaja en mejorar el reconocimiento de voz en ambientes difíciles, como calles concurridas o espacios cerrados con eco. Esto encaja con la evolución de Siri y con la estrategia de Apple Intelligence.También hay debate interno. Parte de la fuerza laboral de Apple ha pedido revisar su relación con Israel. La empresa sabe que integrar este equipo traerá conversaciones complejas, tanto técnicas como éticas. Aun así, la decisión está tomada: Apple prefiere comprar talento y conocimiento antes que empezar desde cero.Apple compra Q.ai y apuesta por una inteligencia artificial que entiende susurros y gestos faciales. La promesa es usar la tecnología sin hablar en voz alta. El impacto puede sentirse en AirPods, Siri y futuros dispositivos. ¿Te gustaría interactuar con IA de forma silenciosa? Cuéntanos qué piensas y sigue Flash Diario en Spotify. BibliografíaCTech – Calcalist Tech9to5MacPhoneArenaCNBCTechCrunchConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Chrome ya navega solo

    Play Episode Listen Later Jan 29, 2026 11:33 Transcription Available


    Google navega por tiGoogle integra Auto Browse en Chrome para delegar tareas web a la inteligencia artificial GeminiPor Félix Riaño @LocutorCoGoogle transforma Chrome en un navegador asistido por IA que ejecuta tareas reales por el usuario.Google está dando un paso que cambia la forma en que usamos internet todos los días. El navegador Chrome, que millones de personas abren cada mañana, ahora puede navegar solo. La nueva función se llama Auto Browse y pone a la inteligencia artificial de Gemini a manejar el navegador como si fuera una persona. Buscar productos, comparar precios, revisar correos antiguos, organizar viajes o preparar formularios ya no depende solo del usuario. Chrome puede hacerlo por encargo.La promesa es clara: menos clics, menos pestañas abiertas y menos tiempo frente a la pantalla. Pero también aparecen preguntas grandes. ¿Hasta dónde conviene delegar el control del navegador? ¿Qué riesgos tiene dejar que una IA actúe en nuestro nombre? Y, sobre todo, ¿quién responde si algo sale mal?Punto de giro narrativoDelegar navegación ahorra tiempo, pero traslada el control a la máquina.Auto Browse es una función integrada en Chrome que permite pedirle a Gemini que complete tareas complejas en la web. No se trata de responder preguntas ni resumir páginas. Aquí la IA hace clics reales, abre pestañas, revisa historiales y avanza paso a paso dentro de sitios web.Google mostró ejemplos muy concretos. Reordenar una chaqueta comprada el año pasado. Buscar un cupón de descuento antes de pagar. Revisar apartamentos guardados y descartar los que no aceptan mascotas. Comparar vuelos en distintas fechas.Todo ocurre dentro de Chrome, usando una nueva barra lateral que mantiene a Gemini visible mientras el usuario sigue navegando. La IA puede trabajar en segundo plano mientras tú haces otra cosa. Esa es la apuesta: convertir al navegador en un asistente activo, no en una simple ventana al internet.El problema aparece cuando esa ayuda empieza a tomar decisiones. Auto Browse puede iniciar sesiones, recorrer tiendas y preparar compras, pero Google deja algo muy claro: el usuario sigue siendo responsable de cada acción. En la versión de prueba hay un aviso directo. “Usa Gemini con cuidado y toma el control si es necesario”.Esto no es solo un detalle legal. Los sistemas de navegación automática pueden ser engañados por sitios maliciosos mediante técnicas conocidas como inyección de instrucciones. Una página puede intentar convencer a la IA de hacer algo distinto a lo que pidió el usuario.Por ahora, Google pone límites. Las acciones sensibles, como pagar con tarjeta o publicar en redes sociales, requieren aprobación humana. La IA se detiene, explica qué hizo y pregunta si puede seguir. Aun así, el debate está abierto. Más automatización implica más superficie de riesgo.Google no está sola en esta carrera. OpenAI lanzó su propio navegador, Atlas, diseñado desde cero alrededor de la inteligencia artificial. Perplexity tiene Comet. Opera y otros navegadores ya integran agentes similares. Chrome responde integrando estas funciones sin obligar al usuario a cambiar de herramienta.Auto Browse está disponible desde ahora en Estados Unidos para quienes pagan los planes AI Pro y AI Ultra de Google. No hay fecha confirmada para otros países ni para usuarios gratuitos. Google suele desplegar estas funciones de forma gradual, así que la expansión es muy probable.La visión de fondo es ambiciosa. Demis Hassabis, director de Google DeepMind, habla de un asistente universal capaz de planear y actuar en nombre del usuario en cualquier dispositivo. Chrome es una pieza central de ese plan. La navegación deja de ser manual y pasa a ser delegada.Este movimiento también tiene un contexto legal y estratégico. Google reforzó Chrome con inteligencia artificial luego de que un juez federal en Estados Unidos rechazara obligar a la empresa a vender el navegador por su dominio en el mercado de búsqueda. El argumento fue que la inteligencia artificial ya está cambiando el panorama competitivo.Además de Auto Browse, Chrome integra Nano Banana, una herramienta de generación y edición de imágenes que funciona directamente en el navegador. También suma la función Personal Intelligence, que conecta datos de Gmail, Calendario, Fotos, YouTube y Búsqueda para dar respuestas personalizadas.Todo funciona con el modelo Gemini 3. Parte del procesamiento ocurre en el dispositivo, pero los datos también viajan a la nube. Google afirma que el usuario puede decidir qué aplicaciones se conectan y cuándo. La personalización es opcional, pero el rumbo es claro: Chrome va camino a ser un asistente que recuerda, anticipa y actúa.Chrome ya no solo muestra páginas. Ahora puede recorrer la web por ti. Auto Browse promete ahorrar tiempo, pero exige confianza y atención. La pregunta es cuánto control estás dispuesto a ceder.Cuéntanos qué opinas y sigue Flash Diario en Spotify para más historias de tecnología explicadas sin rodeos.BibliografíaWiredCNBCABC NewsGizmodoEngadgetTechCrunchCNETConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Terapias genéticas hechas persona por persona

    Play Episode Listen Later Jan 28, 2026 11:19 Transcription Available


    Aurora Therapeutics quiere escalar terapias Crispr personalizadas para enfermedades raras usando una nueva ruta regulatoriaPor Félix Riaño @LocutorCoEn Estados Unidos, un bebé llamado KJ recibió un tratamiento de edición genética hecho para su caso, y los médicos creen que le salvó la vida. Ese detalle suena a ciencia ficción, pero está pasando ya: un equipo diseñó una terapia personalizada en unos seis meses, para corregir una mutación rara que le estaba causando una acumulación peligrosa de amonio en su cuerpo. KJ salió del hospital en junio.Ahora, la pregunta es otra: ¿esto se puede repetir para más personas, sin que cada paciente tenga que esperar años? Ahí entra Aurora Therapeutics, una nueva empresa cofundada por Jennifer Doudna, una de las científicas detrás de Crispr y ganadora del Nobel en 2020. Aurora quiere convertir estos “tratamientos a la medida” en algo más común para enfermedades raras. ¿El atajo? Una ruta nueva en la FDA, la agencia que autoriza medicamentos en Estados Unidos.)Y aquí viene el giro: si el regulador acepta aprobar terapias con datos de pocas personas, ¿cómo se protege la seguridad cuando el tratamiento es distinto en cada paciente?Suena rápido, pero el riesgo es editar donde no tocaPlanteamiento descriptivo (más de 100 palabras)Vamos por partes y sin tecnicismos raros. Crispr es una familia de herramientas que ayuda a “apuntar” a un lugar específico del material genético para hacer un cambio. En el caso de terapias personalizadas, la idea es sencilla de decir y difícil de ejecutar: si una enfermedad viene de una mutación concreta, se intenta corregir esa mutación concreta.El problema es que muchas enfermedades raras tienen poquísimos pacientes. Entonces, hacer ensayos clínicos grandes, con cientos o miles de personas, se vuelve casi imposible. Y ahí aparece un debate enorme: ¿cómo apruebas un tratamiento cuando no puedes reunir tanta gente para probarlo?Aurora Therapeutics dice que va a apoyarse en una ruta nueva de la FDA llamada “plausible mechanism pathway”, que busca aprobar terapias personalizadas para enfermedades raras y graves cuando un ensayo grande no es realista.Aquí está la tensión: la promesa de “medicina a la carta” choca con la realidad de la seguridad y la evidencia. En medicina, normalmente se exigen estudios con muchos pacientes para saber dos cosas: si funciona, y si es seguro. En enfermedades raras, ese estándar clásico se vuelve una pared: no hay suficientes personas para llenar un estudio grande, y cada mutación puede ser diferente.Aurora quiere empezar por una enfermedad metabólica llamada fenilcetonuria, o PKU, que se detecta con tamizaje al nacer. La PKU puede llevar a niveles tóxicos de fenilalanina en sangre y, sin manejo temprano, afectar el desarrollo del cerebro. En Estados Unidos se habla de unas 13.500 personas viviendo con PKU. El reto extra: hay más de mil mutaciones distintas que pueden causarla. (WIRED)Entonces, aunque el “motor” de la terapia sea el mismo, el “destino” cambia. Y cuando cambias el destino, también cambian los riesgos: el editor podría actuar donde no debe, lo que se conoce como efectos fuera del objetivo. (La apuesta de Aurora se apoya en una idea de plataforma. Es decir: mantener el mismo proceso de diseño y fabricación, y cambiar una pieza que guía al editor hacia la mutación correcta. En el caso de KJ, la guía se diseñó para su mutación exacta, por eso su tratamiento era para él y para nadie más.Con PKU, Aurora quiere hacer “versiones” que cambien esa guía, para cubrir muchas mutaciones sin tener que empezar desde cero con un proceso regulatorio eterno cada vez. Y aquí la nueva ruta de la FDA es el centro del plan: en el artículo de la New England Journal of Medicine, los autores describen que, si un fabricante muestra éxito en varios pacientes consecutivos con terapias personalizadas relacionadas, la FDA podría avanzar hacia una autorización de comercialización del “producto”, usando esa experiencia para acelerar aprobaciones similares basadas en la misma tecnología.¿Y el “cinturón de seguridad” de todo esto? La ciencia está empujando en paralelo herramientas para controlar a Crispr, como anti-CRISPR diseñados con ayuda de inteligencia artificial, que funcionan como apagadores para que el editor no se quede activo más tiempo del debido. Un estudio en Nature Chemical Biology publicado el 26 de enero de 2026 describe el diseño “de novo” de inhibidores potentes para sistemas tipo Cas13, usando enfoques de diseño de proteínas guiados por IA.Vale la pena entender dos historias que se están juntando aquí: regulación y control tecnológico. Por el lado regulatorio, Reuters contó que la FDA presentó esta ruta de “mecanismo plausible” como una forma de permitir acceso más rápido a terapias para enfermedades extremadamente raras y graves, con aprobación basada en datos de pocos pacientes, y con seguimiento posterior usando evidencia del mundo real para confirmar beneficios y vigilar seguridad. Esa última parte es importante, porque no se trata de “aprobar y ya”, se trata de aprobar con condiciones y vigilancia fuerte. (Reuters)Por el lado tecnológico, el tema de los “apagadores” está creciendo porque la medicina no quiere un editor encendido sin control. Phys.org resume el problema así: aunque Crispr puede ser muy preciso, hay riesgos cuando el sistema actúa fuera del objetivo, y encontrar inhibidores naturales ha sido lento; por eso se explora el diseño con IA para crear inhibidores que funcionen como freno.Y aquí hay un matiz que me parece fascinante para contarlo en Flash Diario: la carrera ya no es solo “editar mejor”. También es “editar y poder detenerlo a tiempo”. Si Aurora logra una plataforma repetible y, a la vez, la ciencia logra controles más finos, la conversación cambia: pasamos de casos heroicos aislados, como el de KJ, a un modelo donde más familias podrían tener una opción realista.Pero queda una pregunta enorme para 2026: ¿cómo se diseña un sistema que sea rápido, personalizado y también verificable, cuando cada paciente es un mundo distinto?Aurora Therapeutics, con Jennifer Doudna, quiere llevar la edición genética personalizada a más pacientes con enfermedades raras, usando una ruta nueva de la FDA. La promesa es velocidad y acceso; el reto es seguridad y evidencia cuando cada terapia cambia. Quiero leerte: ¿te emociona o te preocupa este camino? Sigue Flash Diario en Spotify.Bibliografía WiredReutersNew England Journal of MedicineNature Chemical BiologyPhys.orgBioPharma DiveConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Así funciona el nuevo AirTag

    Play Episode Listen Later Jan 27, 2026 13:30 Transcription Available


    Apple renueva AirTag con mayor alcance, sonido más fuerte y soporte directo en Apple WatchPor Félix Riaño @LocutorCoDespués de cinco años sin cambios físicos, Apple pone al día su rastreador más popular. Llega la segunda generación de AirTag, ya disponible desde hoy. Mantiene el precio, mantiene el diseño y mantiene la pila reemplazable. Lo que cambia está por dentro: más alcance real al buscar, un sonido mucho más fácil de oír y nuevas formas de encontrarlo desde el reloj. ¿La pregunta? Si estas mejoras justifican el salto para quien ya tiene uno, o si son la base para competir con lo que viene de otras marcas.Más potencia, mismo formato, y un nuevo competidor que ya viene en camino.El nuevo AirTag usa el chip Ultra Wideband U2, el mismo que ya está en los iPhone y relojes recientes. Ese cambio permite que la búsqueda de precisión llegue hasta un cincuenta por ciento más lejos. En la práctica, levantas el iPhone y recibes señales visuales, vibración y sonido que te guían paso a paso. Por primera vez, esa búsqueda también funciona desde Apple Watch Series 9 en adelante y desde Apple Watch Ultra 2.El altavoz también sube de nivel: suena un cincuenta por ciento más fuerte y se oye desde el doble de distancia. Hay un nuevo tono, pensado para destacar entre ruidos cotidianos. El Bluetooth mejora su alcance general y la batería sigue siendo una CR2032, con más de un año de uso estimado y reemplazo sencillo.El éxito del AirTag también trajo debates serios. En el pasado se usó para rastrear personas sin permiso. Apple respondió con alertas de seguimiento no deseado, avisos en iPhone y Android y sistemas de identificación que cambian con frecuencia. Todo eso sigue presente en esta generación.Además, el ecosistema es exigente: para activar el nuevo AirTag necesitas iPhone o iPad con iOS 26, cuenta de Apple y sesión iniciada en iCloud. Para algunos usuarios, esa barrera es real. A eso se suma un detalle que muchos siguen pidiendo: el AirTag no trae orificio para llavero. Sigues necesitando funda o accesorio. Funciona, pero no es perfecto.Apple mantiene el precio: veintinueve dólares por unidad y noventa y nueve dólares el paquete de cuatro. La compatibilidad con accesorios antiguos sigue intacta. También crece una función muy práctica: Share Item Location, que permite compartir la ubicación de una maleta con aerolíneas. Ya funciona con más de cincuenta aerolíneas y, según datos del sector, ha reducido retrasos y pérdidas de equipaje de forma notable.En sostenibilidad, el AirTag usa plástico reciclado en su carcasa, tierras raras recicladas en los imanes y oro reciclado en las placas. El empaque es de papel. No es una revolución visual, pero sí un ajuste fino que refuerza una categoría que ya es parte del día a día.El mercado se está calentando. Mientras Apple actualiza, otras marcas avanzan. En el código de HyperOS ya aparecieron referencias al Xiaomi Tag, con versiones con y sin UWB y pila CR2032. Samsung y Motorola también empujan sus opciones. Aun así, AirTag sigue dominando gracias a la red Find My, que usa millones de dispositivos cercanos para ubicar objetos perdidos.El nuevo AirTag requiere iOS 26.2.1 para activar todas sus funciones. Esa actualización también llega a iPhone desde 2019. En relojes, la búsqueda de precisión se limita a modelos recientes. El mensaje es claro: Apple afina su rastreador y prepara el terreno para una competencia más dura en 2026.AirTag 2 mantiene precio y forma, pero mejora alcance, sonido y uso desde el reloj. Si viajas o pierdes llaves seguido, vale la pena mirarlo. Cuéntanos tu experiencia y sigue Flash Diario en Spotify.BibliografíaWiredEngadgetGizmodoTechCrunchConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Qué pasó con los filtros de Gmail

    Play Episode Listen Later Jan 26, 2026 7:24 Transcription Available


    Problemas de spam y retrasos en Gmail durante el fin de semana afectan a millones de usuarios.Por Félix Riaño @LocutorCo Si tu bandeja de entrada de Gmail se volvió un caos este fin de semana, no fuiste la única persona. Durante varias horas, el sistema automático de filtros de Gmail dejó de funcionar como siempre. Correos que debían ir a Promociones, Social o Actualizaciones terminaron mezclados con mensajes personales. Al mismo tiempo, aparecieron avisos diciendo que algunos correos no habían sido revisados por spam o software peligroso. Google reconoció el problema y aseguró que ya está solucionado. La pregunta que queda en el aire es simple: ¿cómo pudo fallar un sistema en el que confiamos todos los días para trabajar, estudiar y comunicarnos?Confiamos en filtros invisibles, hasta que dejan de funcionar.Vamos a poner el contexto desde el inicio. El sábado 24 de enero de 2026, muy temprano en la mañana, usuarios de Gmail en varias regiones empezaron a notar algo extraño. La pestaña Principal se llenó de correos promocionales, boletines y mensajes automáticos. Muchos pensaron que habían tocado alguna opción por error, pero no. El problema estaba del lado de Google.Según el panel oficial de estado de Google Workspace, el fallo comenzó alrededor de las cinco de la mañana, hora del Pacífico. El sistema de clasificación automática empezó a colocar mal los correos y, además, mostró avisos de spam que no correspondían. Gmail, que desde 2013 usa pestañas para ordenar el correo, dejó de separar el ruido de los mensajes importantes. Para millones de personas, la rutina diaria con el correo se rompió de golpe.El problema no fue solo visual. Muchos usuarios vieron un mensaje preocupante en algunos correos: “Gmail no ha analizado este mensaje para detectar spam, remitentes no verificados o software dañino”. Ese aviso generó dudas y nervios. ¿Era solo un error del texto o de verdad el sistema de seguridad no estaba revisando los mensajes?A esto se sumaron retrasos en la entrega de correos. Para quienes dependen del correo para recibir códigos de verificación o mensajes urgentes, la situación fue complicada. En redes sociales, las quejas se multiplicaron. Personas en Estados Unidos y otros países contaron que su bandeja de entrada parecía volver al pasado, a una época sin filtros automáticos. El fallo dejó algo muy claro: dependemos mucho de estos sistemas para mantener el orden y la seguridad digital.La buena noticia llegó el domingo por la mañana. Google marcó el incidente como resuelto y afirmó que los filtros de Gmail ya estaban funcionando de nuevo para todas las personas. En un comunicado, explicó que el problema causó una mala clasificación de correos, avisos de spam incorrectos y demoras en la recepción de mensajes.Google también avisó que algunos avisos podían seguir apareciendo en correos enviados antes de que el fallo se corrigiera. Además, prometió publicar un informe interno explicando qué ocurrió exactamente. Mientras tanto, recomendó a los usuarios tener cuidado con correos de remitentes desconocidos y revisar manualmente las pestañas si algo parecía fuera de lugar. Poco a poco, las bandejas de entrada fueron recuperando el orden habitual.Este incidente sirve para entender cómo funciona Gmail por dentro. El sistema de pestañas usa algoritmos que analizan el contenido, el remitente y el comportamiento del usuario. Con eso decide si un correo va a Principal, Promociones, Social o Spam. Cuando ese sistema falla, el impacto es inmediato y muy visible.No es la primera vez que Gmail enfrenta problemas técnicos, pero sí es uno de los más llamativos por lo cotidiano del servicio. Millones de personas usan Gmail para el trabajo, el estudio y la vida personal. Un fallo de pocas horas basta para generar confusión y desconfianza. También deja una lección práctica: conviene revisar de vez en cuando las carpetas de spam y promociones, y no depender al cien por cien del filtrado automático. La tecnología ayuda mucho, pero no es infalible.Gmail tuvo un fallo que mezcló correos, mostró avisos de spam incorrectos y causó retrasos. Google dice que ya está solucionado y que publicará un informe. Si notaste algo raro, revisa tus carpetas y mantén atención extra por unos días. Cuéntanos tu experiencia y sigue Flash Diario en Spotify.BibliografíaMSNTechCrunch9to5GoogleEngadgetForbesConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    ¿Apple grabando conversaciones?

    Play Episode Listen Later Jan 23, 2026 9:43 Transcription Available


    Apple prueba un pin con inteligencia artificial que escucha y observa, reabriendo el debate sobre privacidadPor Félix Riaño @LocutorCoApple vuelve a experimentar con un formato inesperado. Según varios reportes, la empresa está trabajando en un pequeño pin con inteligencia artificial. Sería un dispositivo para llevar en la ropa, con micrófonos, cámaras y un altavoz. La idea es que escuche comandos de voz y ayude a interactuar con Siri de una forma más directa.Este movimiento llega en un momento delicado. Apple lleva meses recibiendo críticas por el retraso de su estrategia de inteligencia artificial. Mientras otros gigantes avanzan rápido, Apple va con pasos medidos.La gran pregunta es sencilla y potente: ¿puede Apple lanzar un dispositivo que escucha conversaciones sin dañar su imagen de empresa protectora de la privacidad?Un pin que escucha todo pone en tensión la promesa histórica de privacidad.Los reportes coinciden en varios detalles técnicos. El pin que Apple está probando tendría tres micrófonos, dos cámaras frontales, un altavoz y un botón físico. Su tamaño sería parecido al de un AirTag, un disco pequeño y plano, hecho de aluminio y vidrio.La función principal sería escuchar comandos de voz con precisión. También podría captar imágenes y video, siempre bajo control del usuario. El dispositivo se cargaría de forma inalámbrica, igual que el Apple Watch.La idea es que funcione como una puerta directa a Siri, especialmente a la versión conversacional que Apple está preparando. Esa nueva Siri permitiría charlas más naturales, parecidas a las de ChatGPT o Google Gemini.Aquí aparece el conflicto. Apple ha construido su reputación alrededor de la privacidad. Su director ejecutivo, Tim Cook, repite que proteger los datos personales es una prioridad absoluta.Un pin con micrófonos y cámaras despierta dudas inmediatas. Aunque Apple ya tiene dispositivos que escuchan, como el iPhone o el Apple Watch, estos están claramente visibles y su uso es conocido. Un pin en la ropa cambia la percepción social.Además, la historia reciente no ayuda. El pin de inteligencia artificial de Humane fracasó. Era caro, confuso y generó rechazo. Muchos usuarios y críticos lo vieron como un objeto incómodo y poco útil. Apple conoce ese antecedente y sabe que el margen de error es mínimo.Por ahora, Apple no ha confirmado nada. Todo indica que el proyecto está en una fase temprana y podría cancelarse. Eso es habitual en la empresa. Apple prueba muchas ideas que nunca llegan al mercado.Si el pin avanza, no sería un reemplazo del teléfono. Sería un complemento para acceder a Siri sin sacar el iPhone del bolsillo. También podría servir como laboratorio para futuros productos, como gafas inteligentes.El contexto es clave. Empresas como Meta ya venden gafas con inteligencia artificial. Amazon compró Bee, un brazalete que escucha. OpenAI, junto a Jony Ive, prepara su propio dispositivo. Apple no quiere quedarse atrás, pero tampoco quiere traicionar sus principios.

    Sony apuesta por oído abierto

    Play Episode Listen Later Jan 22, 2026 10:28 Transcription Available


    Auriculares abiertos tipo clip llegan con Sony y cambian cómo escuchamos música sin aislarnos del entornoPor Félix Riaño @LocutorCoSony acaba de presentar los nuevos LinkBuds Clip, unos auriculares inalámbricos que no se meten dentro del oído. En lugar de eso, se sujetan por detrás de la oreja, dejando el canal auditivo libre. Esta decisión responde a una tendencia que está creciendo rápido: escuchar música, pódcast o llamadas sin quedar aislados del mundo que nos rodea. La idea es sencilla de entender, pero sus efectos pueden cambiar la forma en la que usamos auriculares en la calle, en la oficina o haciendo deporte. ¿Hasta qué punto queremos escuchar lo que pasa afuera mientras usamos el celular?Escuchar más afuera también significa renunciar a parte del sonido.Los nuevos Sony LinkBuds Clip pertenecen a una familia que la marca japonesa ya conoce bien. Sony lleva varios años probando diseños abiertos, como los primeros LinkBuds con forma de dona. Ahora da un paso distinto y adopta un sistema tipo clip, parecido al de otros modelos recientes del mercado.Estos auriculares no sellan el oído. El sonido se dirige hacia la entrada del canal auditivo, mientras el usuario sigue escuchando conversaciones, tráfico o avisos del entorno. Sony apunta a personas que caminan por la ciudad, trabajan en oficina, hacen ejercicio al aire libre o simplemente no se sienten cómodas con auriculares tradicionales.Los LinkBuds Clip ya están disponibles en negro, verde, lavanda y un color llamado “greige”, que mezcla beige y gris. El precio ronda los 230 dólares, unos 210 euros al cambio aproximado.El diseño abierto tiene ventajas claras, pero también plantea dilemas. Al no sellar el oído, estos auriculares no pueden ofrecer graves profundos como los modelos cerrados. Eso afecta la música con bajos fuertes, como el pop electrónico o el hip hop. Sony lo sabe y por eso no presenta estos auriculares como una herramienta para audiófilos.Otro punto delicado es el ajuste. Los auriculares tipo clip no se adaptan igual a todas las orejas. Algunas personas sienten presión o fatiga después de un rato. Para responder a esto, Sony incluye unas almohadillas de ajuste opcionales que se colocan en el conector del auricular y ayudan a repartir mejor el peso.También hay límites técnicos. No tienen cancelación activa de ruido, no incluyen carga inalámbrica y algunas funciones avanzadas de otros modelos de Sony aquí no están presentes. El reto es convencer al público de que el beneficio de escuchar el entorno compensa esas ausencias.Sony intenta equilibrar la experiencia con varias herramientas. Los LinkBuds Clip ofrecen hasta nueve horas de uso continuo, y el estuche añade veintiocho horas más, para un total de treinta y siete horas. Con solo tres minutos de carga, se puede obtener alrededor de una hora de reproducción, algo útil para salidas rápidas.En la app Sony Sound Connect, el usuario va a poder ajustar un ecualizador de diez bandas y elegir entre tres modos de sonido. El modo estándar sirve para música general. El modo Voice Boost está pensado para pódcast y llamadas en ambientes ruidosos. El modo de reducción de fuga de sonido baja el volumen y recorta frecuencias altas para no molestar a otras personas en espacios silenciosos.Para llamadas, Sony combina micrófonos con sensores de conducción ósea y reducción de ruido asistida por inteligencia artificial. La idea es que la voz se escuche estable incluso cuando no hay silencio alrededor.Sony no llega sola a este terreno. El mercado de auriculares abiertos tipo clip está creciendo rápido. Modelos como los Bose Ultra Open, los Shokz OpenDots One, los AeroClip de Soundcore o propuestas recientes de JBL y Huawei muestran que muchas personas buscan alternativas a los auriculares que se meten dentro del oído.Los estudios de mercado citados por medios especializados indican que este segmento es uno de los que más crece en audio personal. La razón es sencilla: comodidad, seguridad en la calle y menos sensación de encierro auditivo.Sony ya había experimentado con esta filosofía desde 2022, pero el LinkBuds Clip es su primer intento con diseño de pinza. No busca reemplazar a los modelos con cancelación de ruido, sino convivir con ellos como una opción distinta para momentos concretos del día.Sony entra con fuerza al mundo de los auriculares abiertos tipo clip con los LinkBuds Clip. Ofrecen comodidad, buena autonomía y llamadas fiables, a cambio de sacrificar aislamiento y graves potentes. Si te interesa escuchar música sin desconectarte del entorno, este formato merece atención. Cuéntanos qué opinas y sigue Flash Diario en Spotify para más historias de tecnología.Bibliografía El Siglo 21 es HoyThe VergeWhat Hi-FiBloombergEngadgetCNETConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    El misterio de hierro que reescribe libros de astronomía

    Play Episode Listen Later Jan 21, 2026 8:29 Transcription Available


    Una misteriosa barra de átomos de hierro aparece en la Nebulosa del Anillo y desconcierta a la astronomíaPor Félix Riaño @LocutorCoAstrónomos detectaron una estructura de hierro dentro de la Nebulosa del Anillo que no encaja con ningún modelo conocido  La noticia llega desde uno de los objetos más estudiados del cielo nocturno. La Nebulosa del Anillo, también llamada Messier 57, volvió a sorprender a la ciencia. A unos dos mil seiscientos años luz de la Tierra, dentro de esta nube brillante que marca la muerte de una estrella parecida al Sol, apareció algo inesperado: una barra estrecha y alargada formada solo por átomos de hierro. No hay oxígeno, ni hidrógeno, ni helio siguiendo ese patrón. Solo hierro. La estructura mide unos seis billones de kilómetros de extremo a extremo y cruza el centro de la nebulosa como una cicatriz cósmica. Los investigadores reconocen que no saben cómo llegó ahí. Y esa duda abre preguntas inquietantes sobre el destino de los planetas cuando una estrella muere. ¿Podría la Tierra acabar convertida en una nube parecida dentro de miles de millones de años?Todos miraban la nebulosa, pero nadie había visto esto antesLa Nebulosa del Anillo se formó hace unos cuatro mil años, un suspiro en tiempos cósmicos. Nació cuando una estrella con el doble de la masa del Sol agotó su combustible, se infló hasta convertirse en una gigante roja y expulsó sus capas externas. Ese material creó un anillo luminoso de gas, mientras el núcleo quedó reducido a una enana blanca, más o menos del tamaño de la Tierra. Durante décadas, telescopios de todo tipo la observaron en luz visible, infrarroja y ultravioleta. Aun así, esta barra de hierro pasó desapercibida. La razón está en la tecnología. El hallazgo fue posible gracias a un nuevo instrumento llamado WEAVE, instalado en el Telescopio William Herschel, que permite analizar la luz punto por punto en toda la nebulosa. Al revisar los datos, los científicos vieron una línea brillante donde no debía haber nada especial.El problema no es detectar la barra. El problema es explicarla. En las nebulosas planetarias, los elementos suelen mezclarse y distribuirse en formas redondeadas, arcos o burbujas. Aquí ocurre algo distinto. Solo el hierro aparece concentrado en una franja recta. Ningún otro elemento químico sigue esa geometría ni comparte el mismo movimiento. Las mediciones muestran velocidades de entre veinte y cincuenta kilómetros por segundo, valores que no encajan con chorros de materia ni con explosiones conocidas. Además, para liberar hierro del polvo cósmico se necesitan choques muy rápidos o gas a millones de grados, señales que no se observan en esta zona. Aun así, al comparar con imágenes infrarrojas del telescopio James Webb, los astrónomos notaron menos polvo justo donde hay más hierro. Algo está destruyendo ese polvo, pero nadie sabe cómo. Las teorías actuales no alcanzan para cerrar el caso.Una de las ideas más comentadas es tan inquietante como fascinante. La barra podría ser el rastro de un planeta rocoso que orbitaba esa estrella y fue desintegrado cuando la estrella se expandió. La cantidad de hierro detectada equivale, más o menos, a la masa del hierro que tendría un planeta como la Tierra o Venus. Ese material habría quedado alineado por procesos que aún no entendemos bien. Los propios investigadores advierten que esta explicación es provisional. También existe la posibilidad de que la barra revele una fase desconocida en la forma en que las estrellas expulsan su materia al morir. Para resolverlo, el equipo va a realizar nuevas observaciones con mayor resolución. Si aparecen barras parecidas en otras nebulosas, la historia cambiará. Lo que hoy parece raro podría resultar común en el ciclo de vida de las estrellas.La Nebulosa del Anillo es tan popular que aparece en libros escolares y guías para aficionados. Con binoculares ya se distingue como un pequeño aro difuso en la constelación de Lyra. Que un objeto tan observado escondiera una estructura desconocida durante más de dos siglos dice mucho sobre los límites de nuestras herramientas. WEAVE funciona con cientos de fibras ópticas que recogen luz de cada punto del objeto observado. Antes, los astrónomos usaban rendijas estrechas que podían pasar por alto detalles si no apuntaban justo en el ángulo adecuado. Este avance técnico abre la puerta a revisar viejos conocidos con ojos nuevos. Además, hay unas tres mil nebulosas planetarias catalogadas en nuestra galaxia. Muchas podrían guardar sorpresas similares. Estudiarlas ayuda a entender cómo los elementos creados en las estrellas terminan formando nuevos sistemas planetarios. En otras palabras, historias como esta explican de dónde viene el hierro que llevamos en la sangre.Una barra gigante de hierro apareció en el corazón de la Nebulosa del Anillo y dejó a la ciencia llena de preguntas. Nadie sabe aún cómo se formó ni qué la explica mejor. Este tipo de hallazgos recuerda que el universo sigue guardando secretos. Si te gustan estas historias, acompáñanos y sigue Flash Diario en SpotifyBibliografíaSky News – Ring nebula: mysterious iron bar in spaceReuters – Astronomers spot mysterious iron bar in well-known Ring NebulaSpace.com – Astronomers discover an enormous iron bar in the famous Ring NebulaMonthly Notices of the Royal Astronomical Society – Artículo científicoConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    El dispositivo misterioso de OpenAI

    Play Episode Listen Later Jan 20, 2026 10:11 Transcription Available


    El primer hardware de OpenAIOpenAI prepara su primer dispositivo físico para 2026 junto a Jony Ive, con interacción por voz y sin pantalla Por Félix Riaño @LocutorCoOpenAI, la empresa conocida por crear ChatGPT, ya tiene una fecha clara para mostrar su primer dispositivo físico. La presentación va a llegar en la segunda mitad de 2026.La confirmación vino desde Davos, en Suiza, durante el Foro Económico Mundial. Allí habló Chris Lehane, una de las voces que representa a OpenAI ante gobiernos y medios.Desde hace meses, Sam Altman, director ejecutivo de OpenAI, viene hablando de un nuevo tipo de dispositivo con inteligencia artificial. Un objeto pequeño, sin pantalla y pensado para acompañar a las personas durante el día.El diseño está en manos de Jony Ive, uno de los diseñadores más influyentes del mundo. La gran pregunta es sencilla: ¿qué clase de tecnología puede reemplazar parte de nuestra relación con el celular?Un dispositivo que acompaña, pero no distrae.Para entender esta historia hay que conocer a sus protagonistas.Sam Altman es el director ejecutivo de OpenAI. Es la persona que lidera el desarrollo de ChatGPT y quien ha insistido en que la inteligencia artificial debe sentirse natural y cercana. Desde 2024 habla de crear un dispositivo más tranquilo que un smartphone.Jony Ive es el diseñador que durante años definió cómo lucen y se usan productos como el iPhone, el iPad y el Apple Watch. En 2025, OpenAI compró su empresa de hardware, llamada io.Chris Lehane es el jefe de asuntos globales de OpenAI. Su trabajo es explicar qué hace la empresa y hacia dónde va. En Davos confirmó que el proyecto de hardware sigue avanzando y que se va a mostrar en 2026.La idea central es clara: un dispositivo sin pantalla, controlado por voz, que funcione como un compañero inteligente.Crear un nuevo tipo de dispositivo no es fácil. Ya hubo intentos recientes de productos con inteligencia artificial que no lograron convencer al público. Algunos eran incómodos, otros poco claros en su utilidad.OpenAI quiere evitar esos errores. Por eso habla de simplicidad extrema. Un objeto que se use sin tutoriales largos y sin depender de aplicaciones visibles.También aparece un tema sensible: la privacidad. Un dispositivo que escucha y observa el entorno necesita reglas claras. OpenAI sabe que va a tener que explicar muy bien cómo se usan los datos y cuándo el aparato está activo.Otro desafío es cultural. Las personas ya viven pegadas al celular. Convencerlas de usar otro dispositivo requiere una experiencia realmente cómoda y útil en la vida diaria.Chris Lehane fue cuidadoso con las fechas. OpenAI va a mostrar el dispositivo en la segunda mitad de 2026, pero todavía no promete ventas inmediatas. La llegada al público podría pasar a 2027.El dispositivo, según reportes, sería pequeño y ligero, con un peso estimado entre 10 y 15 gramos. Tendría micrófonos y sensores para entender el entorno. Todo funcionaría por voz y conexión con ChatGPT.OpenAI habría elegido a Foxconn como socio de fabricación, una empresa conocida por producir millones de dispositivos electrónicos. La producción se haría en Vietnam o en Estados Unidos.Sam Altman insiste en que este producto no va a reemplazar el celular. Su objetivo es convertirse en un tercer dispositivo esencial, junto al teléfono y al computador portátil.Dentro de OpenAI, el proyecto tiene nombres internos como “Gumdrop” y “Sweetpea”. Estos nombres se usan mientras el producto final sigue en desarrollo.La empresa también ha reforzado sus modelos de audio, lo que indica que la voz va a ser el centro de la experiencia. Esto encaja con la idea de una inteligencia artificial ambiental, que responde cuando la necesitas y se queda en silencio el resto del tiempo.A largo plazo, OpenAI explora más formatos: gafas inteligentes, altavoces y otros objetos conectados. El dispositivo de 2026 sería el primer paso de una estrategia más amplia.El resultado final todavía es un misterio. Pero el mensaje es claro: OpenAI quiere que la inteligencia artificial salga de la pantalla y se integre en la rutina diaria de forma calmada y sencilla.El proyecto busca una relación más tranquila con la tecnología.Cuéntanos qué piensas y sigue Flash Diario en Spotify.BibliografíaAxios – OpenAI is on track to unveil its first device in 2026Bitcoin.com – OpenAI confirms 2026 rollout windowTweakTown – OpenAI to unveil first deviceOodaloop – OpenAI aims to debut first device in 2026CryptoBriefing – OpenAI hardware launch 2026Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    El chip de Nvidia que quedó atrapado entre dos potencias

    Play Episode Listen Later Jan 19, 2026 12:58 Transcription Available


    La venta del chip H200 de Nvidia a China se aprobó, pero todo se detuvo después Antes del freno en aduanas, Estados Unidos y China llevaban años tensando el acceso a chips de inteligencia artificial clave.Por Félix Riaño @LocutorCo. La historia empieza con una aparente luz verde. El gobierno de Estados Unidos dijo que Nvidia podía volver a vender su chip H200 a China. Parecía un alivio para el mercado y para la propia Nvidia. El H200 es uno de sus procesadores de inteligencia artificial más potentes, usado en centros de datos y en el entrenamiento de modelos de IA. China es uno de los grandes compradores del mundo, así que la noticia movió expectativas, pedidos y producción.Pero pocos días después, algo cambió. Los chips no entraron a China. No hubo anuncios públicos ni ruedas de prensa. Hubo silencios, llamadas internas y órdenes verbales en las aduanas. La pregunta es sencilla y a la vez enorme: ¿cómo pasamos de una aprobación oficial a un bloqueo total en cuestión de días?Cuando todo parecía listo, las aduanas chinas dijeron “alto” sin explicaciones clarasVamos por partes y en orden. La semana pasada, la administración de Donald Trump aprobó formalmente que Nvidia reanudara las ventas del chip H200 a China. Esta aprobación llegó con condiciones muy concretas.Primero, cada chip debía pasar por pruebas de terceros para verificar sus especificaciones técnicas. Segundo, China solo podía recibir hasta la mitad de los H200 que Nvidia vendiera a clientes de Estados Unidos. Tercero, Nvidia debía garantizar que había suficientes chips para el mercado estadounidense antes de exportar uno solo.Además, Washington impuso una tasa del veinticinco por ciento que debía pagarse al gobierno de Estados Unidos por cada chip vendido. Todo esto se presentó como un marco de control estricto. Aun así, para Nvidia era una oportunidad. Las empresas chinas ya habían mostrado interés. Algunas estimaciones hablaban de más de un millón de pedidos previstos.Aquí es donde la historia se complica. Aunque Estados Unidos dio su aprobación, en China ocurrió otra cosa. Según reportes publicados por Reuters y el Financial Times, las autoridades aduaneras chinas empezaron a bloquear la entrada de los chips H200.En ciudades como Shenzhen, las empresas de logística recibieron instrucciones claras: no podían tramitar el despacho aduanero de esos chips. Al mismo tiempo, funcionarios del gobierno llamaron a empresas tecnológicas locales y les advirtieron que evitaran comprar el H200, salvo que fuera realmente necesario.No se explicó si era una prohibición formal o una medida temporal. Esa falta de claridad encendió todas las alarmas. Los proveedores de Nvidia, que ya estaban produciendo piezas específicas para el H200, frenaron sus fábricas para evitar pérdidas. Muchas de esas piezas no sirven para otros chips. El riesgo de quedarse con inventarios inútiles era real.Con el bloqueo en marcha, Nvidia quedó en una posición incómoda. La empresa esperaba empezar envíos en marzo y algunos lotes ya habían llegado a Hong Kong. El freno chino tomó a muchos por sorpresa.Dentro de China, el debate es intenso. Varias agencias del gobierno tienen opiniones distintas. Algunas quieren acceso a chips avanzados para investigación y desarrollo. Otras empujan con fuerza el uso de procesadores nacionales para lograr autosuficiencia tecnológica. Esa tensión interna se refleja en decisiones confusas y cambiantes.Mientras tanto, varias empresas chinas cancelaron pedidos del H200. Algunas están buscando alternativas en el mercado gris, incluso chips más avanzados de Nvidia que Estados Unidos prohíbe exportar. Otras están migrando a soluciones locales, aunque rindan menos.Para Nvidia, el mensaje es claro: aunque una venta esté aprobada sobre el papel, la realidad política puede cambiar el tablero en cualquier momento.Este episodio no es un caso aislado. El H200 se ha convertido en un símbolo de la disputa tecnológica entre Estados Unidos y China. Para Washington, permitir su venta con controles busca mantener influencia y recaudar ingresos. Para Pekín, limitar su entrada puede acelerar el desarrollo de chips propios.Empresas chinas como Huawei y otros fabricantes locales están aumentando producción de procesadores de inteligencia artificial. El objetivo es depender menos de tecnología extranjera, aunque el camino sea más lento y costoso.En los mercados, la reacción fue inmediata. Las acciones de Nvidia bajaron levemente tras conocerse el bloqueo. Inversores y analistas miran ahora dos fechas clave: la reapertura de los mercados tras el festivo en Estados Unidos y los resultados financieros de Nvidia a finales de febrero.Todo esto ocurre mientras la cadena global de semiconductores sigue bajo presión. Cada decisión política tiene efectos en fábricas, empleo, precios y desarrollo tecnológico en todo el mundo.Cuéntanos qué opinas y sigue Flash Diario en Spotify para entender cada giro de esta guerra tecnológica.BibliografíaYahoo Finance – Trump Administration Clears Nvidia's H200 AI Chip Sales To ChinaReuters – Nvidia suppliers halt H200 output after China blocks chip shipmentsFinancial Times – Suppliers of parts for Nvidia's H200 chips pause productionInvesting.com – Nvidia suppliers halt H200 output after China blocks shipmentsNDTV – China blocks Nvidia H200 AI chip imports despite US export clearanceThe Guardian – China blocks Nvidia H200 AI chips cleared for exportConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Samsung despeja la duda sobre Galaxy AI

    Play Episode Listen Later Jan 16, 2026 13:45 Transcription Available


    Samsung despeja la duda sobre Galaxy AISamsung confirma que las funciones básicas de Galaxy AI van a seguir siendo gratuitas sin fecha límite.  Por Félix Riaño @LocutorCo. Samsung puso fin a una de las dudas más repetidas entre los usuarios de teléfonos Galaxy. La marca actualizó silenciosamente sus textos legales y confirmó que las funciones básicas de Galaxy AI van a seguir siendo gratis de forma indefinida. Con este cambio, desaparece la amenaza de una suscripción obligatoria para las herramientas de inteligencia artificial que ya vienen incluidas en los dispositivos compatibles. Gratis para siempre, pero con una frontera clara.  Galaxy AI debutó en dos mil veinticuatro con la serie Galaxy S24. Desde entonces, Samsung mantenía una nota que hablaba de uso gratuito “hasta dos mil veinticinco”, lo que dejaba abierta la posibilidad de cobros futuros.Ese texto fue modificado recientemente y ahora afirma que las funciones básicas de Galaxy AI proporcionadas por Samsung serán gratuitas de manera indefinida, según revelóAndroid Authority.  La preocupación de los usuarios era clara: pagar por funciones que ya usaban a diario. La confusión aumentó porque Samsung mezclaba funciones propias con otras que dependen de servicios externos. De acuerdo con PhoneArena, la nueva política separa lo que será gratis de lo que podría convertirse en un servicio pago más adelante.Samsung confirma que herramientas como Call Assist, Writing Assist, Note Assist, Photo Assist, Audio Eraser, Bixby e Interpreter seguirán siendo gratuitas.Eso sí, funciones nuevas, avanzadas o desarrolladas por terceros podrían tener costo en el futuro, como advierte SamMobile y refuerza PCMag.  Samsung calma a los usuarios actuales: Galaxy AI básico no se va a cobrar. Pero deja claro que la inteligencia artificial premium podría tener precio más adelante.Esta historia fue explicada en formato pódcast en Flash Diario deEl Siglo 21 es Hoy. Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Estos audífonos de 5.000 euros dicen poder reemplazar un estudio completo de sonido

    Play Episode Listen Later Jan 15, 2026 13:51 Transcription Available


    Estos audífonos de 5.000 euros dicen poder reemplazar un estudio completo de sonido  El creador del MP3 impulsa unos audífonos que simulan hasta 16 altavoces reales en 360 gradosDurante años, el audio profesional tuvo una regla casi intocable: para mezclar bien hacía falta una sala grande, muchos altavoces y una inversión enorme.Esa idea es la que pone en tensión Okeanos Pro, un sistema de audífonos profesionales presentado por Brandenburg Labs que promete recrear un estudio completo de sonido envolvente sin usar un solo altavoz físico.Esta historia se explica en detalle en un pódcast Flash Diario de ElSiglo21esHoy.com, donde se analiza por qué esta tecnología está llamando la atención de ingenieros de sonido, universidades y centros de investigación.El sistema puede simular hasta 16 altavoces virtuales, incluyendo configuraciones avanzadas como 9.1.6, usadas en cine, música inmersiva y realidad virtual. Los altavoces quedan “anclados” en el espacio y reaccionan al movimiento de la cabeza en tiempo real, como si estuvieran realmente en la sala. Todo se controla desde un navegador web, sin mover equipos ni recalibrar un estudio físico.El contexto completo, con explicaciones pensadas para todo público, forma parte de un episodio de Flash Diario deElSiglo21esHoy.com, centrado en tecnología, ciencia y entretenimiento digital.Detrás del proyecto está Karlheinz Brandenburg, uno de los creadores del MP3. El precio ronda los 5.000 euros, una cifra alta para unos audífonos, pero muy inferior a construir un estudio real con dieciséis altavoces, tratamiento acústico y calibración profesional. Okeanos Pro ya se usa en universidades de Europa y Estados Unidos y se presenta como una alternativa real para producir y enseñar audio inmersivo sin depender de una sala dedicada.El análisis completo y las implicaciones de este movimiento están disponibles en Flash Diario, el pódcast diario de ElSiglo21esHoy.com, donde se siguen de cerca estas tecnologías que buscan cambiar industrias enteras.BibliografíaNotebookcheckGearnewsDigital ReviewsEDM.comMusicTechEl Siglo 21 es HoyConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Lo advertimos en 2024: Apple ya no controla sola el cerebro de Siri

    Play Episode Listen Later Jan 14, 2026 15:22 Transcription Available


    Lo adelantamos en 2024: Apple pone el cerebro de Siri en manos de GoogleApple acaba de confirmar algo que en Flash Diario ya habíamos contado hace año y medio: Google va a estar en la base de la inteligencia artificial del iPhone. Lo que en julio de 2024 era una advertencia, hoy es un acuerdo firmado por varios años.Apple anunció que usará modelos Gemini de Google como base técnica de Siri y de Apple Intelligence a partir de 2026. No se trata de una función más. Se trata de quién sostiene el corazón de la IA del iPhone.En 2024 dijimos que Apple iba a integrar Gemini junto a ChatGPT. En 2026, Gemini pasa a ser la base. Apple acepta apoyo externo en la capa más profunda de su tecnología, algo poco habitual en una empresa obsesionada con el control total de su ecosistema.Según Apple y Google, el procesamiento seguirá ocurriendo en el dispositivo y en la infraestructura privada de Apple, conocida como Private Cloud Compute. Gemini no aparecerá como app ni como asistente visible, pero sí entrenará y reforzará a los modelos que hacen funcionar Siri.Este giro llega tras retrasos, cambios de ejecutivos y una recepción fría de las primeras funciones de Apple Intelligence. Analistas citados por BBC y The Verge coinciden en que Apple necesitaba acelerar, y rápido.Para Google, el premio es enorme: su inteligencia artificial pasa a sostener la experiencia de más de dos mil millones de dispositivos Apple activos en el mundo. Para reguladores, el movimiento levanta cejas: Google ya domina Android, Chrome y la búsqueda web. Ahora también se cuela en el centro del iPhone.Apple insiste en que la privacidad no se toca y que cualquier uso directo de modelos externos requerirá permiso del usuario, como ocurre hoy con ChatGPT. OpenAI seguirá ahí, pero deja de ser la base principal.La verdadera prueba llegará en 2026. Ahí se sabrá si Apple ganó velocidad… o si cedió demasiado control. Lo que sí está claro es esto: esta historia ya la habíamos contado cuando casi nadie hablaba de ella.  BibliografíaFlash Diario ReutersThe VergeBBCThe New York TimesCNBCConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Claude llega a la salud: ayuda, límites y dudas reales

    Play Episode Listen Later Jan 13, 2026 10:42 Transcription Available


    Qué es Anthropic, qué es Claude y por qué ahora entran en medicina y cienciaPor Félix Riaño @LocutorCoAnthropic, una empresa dedicada a crear inteligencia artificial, anunció nuevas funciones para su sistema llamado Claude, pensadas para salud y ciencias de la vida. La novedad se llama Claude for Healthcare y viene acompañada de una ampliación de Claude for Life Sciences. La propuesta busca ayudar a personas, hospitales, aseguradoras y equipos científicos a entender información médica, organizar datos y reducir tareas administrativas, siempre bajo normas estrictas de privacidad en Estados Unidos. El anuncio llega en medio de una carrera entre grandes empresas de IA por entrar al sector salud, uno de los más delicados y regulados.Antes de hablar de medicina, empecemos desde cero.Vamos paso a paso. Primero, ¿qué es Anthropic? Anthropic es una empresa de tecnología fundada en Estados Unidos que se dedica a crear sistemas de inteligencia artificial. Su enfoque público gira alrededor de seguridad, control y uso responsable de la IA. No fabrica teléfonos ni apps de salud. Su producto principal es un sistema de IA conversacional llamado Claude.Ahora, ¿qué es Claude? Claude es un programa de inteligencia artificial que puede leer textos, resumir información, responder preguntas, analizar documentos y ayudar a escribir. Funciona de forma parecida a otros asistentes de IA conocidos, pero Anthropic lo ha orientado mucho a empresas, investigación y trabajos complejos. Hasta ahora, Claude se usaba sobre todo para programación, análisis de documentos largos y apoyo a equipos técnicos.Con este anuncio, Anthropic está diciendo: “vamos a llevar a Claude a la salud”. Eso es importante porque la salud no es un tema cualquiera. Aquí hay datos personales, diagnósticos, tratamientos y decisiones que afectan vidas. Por eso, antes de hablar de funciones, Anthropic insiste en un marco legal: HIPAA, una ley de Estados Unidos que regula cómo se manejan los datos médicos de las personas.Claude for Healthcare es, en esencia, una versión de Claude preparada para trabajar con información médica dentro de esas reglas. No es un médico digital. No receta medicamentos. No hace diagnósticos. Su función es ayudar a entender información y a ordenar procesos.Aquí aparece la gran pregunta: ¿por qué hace falta algo así? Porque el sistema de salud suele ser confuso. Muchas personas reciben resultados de laboratorio que no entienden. Ven números, rangos, siglas y comentarios técnicos. Luego van a una consulta con poco tiempo y muchas dudas.Anthropic quiere que Claude ayude en ese punto. Si una persona decide conectar sus datos, Claude puede resumir su historial médico, explicar resultados con palabras sencillas y ayudar a preparar preguntas para hablar con el médico. La idea no es reemplazar al profesional, sino llegar mejor informado a la conversación.Pero aquí está el riesgo. Cuando una IA habla con tono seguro, algunas personas pueden darle más autoridad de la que tiene. Por eso, Anthropic dice que Claude siempre recuerda sus límites, muestra avisos y dirige a profesionales de salud. Aun así, expertos piden prudencia: cualquier herramienta que maneje datos médicos debe usarse con cuidado y criterio.En el lado de hospitales y aseguradoras, el problema es distinto. Hay una enorme carga administrativa. Autorizaciones previas, apelaciones de seguros, revisión de normas, búsqueda de códigos médicos. Son tareas largas, repetitivas y propensas a errores. Claude entra aquí como asistente administrativo avanzado. Puede buscar información en bases oficiales, cruzar datos y ayudar a redactar documentos. Pero, de nuevo, con revisión humana obligatoria.Ahora sí, veamos qué trae exactamente este anuncio. Para organizaciones de salud en Estados Unidos, Claude puede conectarse a bases de datos oficiales. Por ejemplo, a la base de coberturas de Medicare y Medicaid, que define qué tratamientos están cubiertos y bajo qué condiciones. También puede consultar los códigos médicos que se usan para facturación y gestión de reclamos, y verificar datos de profesionales de la salud.Claude también puede acceder a grandes bibliotecas de investigación médica, con millones de artículos científicos. Esto sirve para resumir estudios y apoyar decisiones informadas, siempre como ayuda, no como autoridad final.En ciencias de la vida, que es el mundo de la investigación médica y farmacéutica, Anthropic amplía el uso de Claude hacia ensayos clínicos. Claude puede trabajar con datos de plataformas usadas en investigación, seguir indicadores como reclutamiento de pacientes y ayudar a redactar borradores de protocolos y documentos regulatorios. Esto apunta a reducir meses de trabajo administrativo y repetitivo.Para personas usuarias, las funciones de salud están en fase beta y solo disponibles en Estados Unidos para planes pagos. Claude puede conectarse a servicios que agrupan historiales médicos y a apps de salud de Apple y Android. Anthropic no anunció fechas para otros países.Para entender el alcance real de esto, conviene separar tres ideas.Primera: esto no es una IA médica autónoma. Claude no “sabe medicina” por sí mismo. Funciona leyendo información existente, organizándola y explicándola mejor. Su valor está en el apoyo, no en la decisión final.Segunda: la privacidad es central en el discurso de Anthropic. La empresa dice que las personas deciden qué datos compartir, pueden retirar permisos y que la información médica no se usa para entrenar modelos. Eso es lo que permite que hospitales y empresas consideren usar estas herramientas.Tercera: el contexto del momento. Este anuncio no ocurre en el vacío. Otras empresas de IA también están lanzando productos para salud. Eso significa más competencia, más atención pública y más presión para hacerlo bien. En salud, la confianza se construye despacio. Un error puede dañar esa confianza muy rápido.La promesa de Anthropic es que Claude ayude a personas y profesionales a entender mejor información compleja, ahorrar tiempo y reducir fricción. El límite está en no cruzar la línea entre ayudar y decidir por otros.Anthropic, una empresa de inteligencia artificial, llevó su sistema Claude al sector salud con nuevas funciones para entender datos médicos y apoyar tareas administrativas y científicas. La propuesta apunta a ordenar información, no a reemplazar médicos. Por ahora, el despliegue se concentra en Estados Unidos. ¿Te sentirías más tranquilo yendo al médico si alguien te ayuda a entender tus exámenes antes? Cuéntamelo y sigue Flash Diario.Anthropic creó Claude, una IA que ahora entra en salud para explicar datos médicos y apoyar trámites, sin reemplazar médicos.Bibliografíahttps://www.anthropic.com/news/healthcare-life-scienceshttps://www.siliconrepublic.com/machines/anthropic-claude-healthcare-tools-ai-openai-data-privacyhttps://thehackernews.com/2026/01/anthropic-launches-claude-ai-for.htmlhttps://www.nbcnews.com/tech/tech-news/anthropic-health-care-rcna252872https://www.bloomberg.com/news/articles/2026-01-11/anthropic-adds-features-for-doctors-patients-in-health-care-pushhttps://siliconangle.com/2026/01/11/anthropic-pushes-healthcare-help-patients-understand-medical-records/https://fortune.com/2026/01/11/anthropic-unveils-claude-for-healthcare-and-expands-life-science-features-partners-with-healthex-to-let-users-connect-medical-records/https://www.fiercehealthcare.com/ai-and-machine-learning/jpm26-anthropic-launches-claude-healthcare-targeting-health-systems-payersConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    El secreto entre neutrinos y materia oscura

    Play Episode Listen Later Jan 12, 2026 6:44 Transcription Available


    Materia oscura y neutrinos podrían interactuar y cambiar el modelo actual del universo, según nuevos estudios cosmológicosPor Félix Riaño @LocutorCoHoy vamos a hablar de una idea que puede cambiar cómo entendemos el universo. Científicos están encontrando señales de que la materia oscura, esa sustancia invisible que sostiene a las galaxias, podría estar interactuando con los neutrinos, partículas diminutas que atraviesan todo sin detenerse. Esta posible relación aparece al comparar datos del universo temprano con observaciones actuales. Si se confirma, el modelo cosmológico que usamos desde hace décadas quedaría incompleto. Y cuando eso pasa, la ciencia avanza. La pregunta es sencilla: ¿y si dos de los grandes misterios del cosmos llevan miles de millones de años influyéndose entre sí?El modelo funciona… hasta que el universo no obedece.Empecemos por entender a los protagonistas. Los neutrinos son partículas extremadamente pequeñas, con muy poca masa, que viajan por el universo casi a la velocidad de la luz. Cada segundo, alrededor de cien billones de neutrinos atraviesan tu cuerpo sin que lo notes. No se quedan, no chocan, siguen su camino.La materia oscura es aún más extraña. Representa cerca del ochenta y cinco por ciento de toda la materia del universo. No emite luz, no la refleja y no puede verse con telescopios. Sabemos que existe porque su gravedad mantiene unidas a las galaxias y controla cómo se mueven.Durante mucho tiempo, los científicos asumieron que neutrinos y materia oscura no interactúan entre sí. Esa idea es parte del modelo cosmológico estándar, conocido como Lambda-CDM, que explica cómo nació y evolucionó el universo.El problema aparece cuando se comparan dos momentos del cosmos. Por un lado, el universo joven, observado a través del Fondo Cósmico de Microondas, una especie de eco térmico del Big Bang. Por otro, el universo actual, medido con mapas detallados de galaxias y lentes gravitacionales.Las matemáticas dicen que las estructuras del universo deberían haberse agrupado más con el paso del tiempo. Galaxias más juntas, regiones más densas. Pero cuando se observa el presente, la materia está un poco menos agrupada de lo esperado.Esta diferencia se conoce como la tensión S8. No es un error enorme, pero tampoco desaparece. Lleva años inquietando a los cosmólogos. Un equipo de la Universidad de Sheffield propone una explicación: una interacción muy leve entre neutrinos y materia oscura, suficiente para frenar el crecimiento de las grandes estructuras cósmicas.La idea surge al combinar muchas observaciones distintas. Datos recogidos por la Dark Energy Camera del telescopio Víctor M. Blanco en Chile, mapas de galaxias del Sloan Digital Sky Survey y mediciones del universo temprano realizadas por el Atacama Cosmology Telescope y la misión Planck de la Agencia Espacial Europea.Al unir toda esta información, los investigadores vieron que un modelo donde neutrinos y materia oscura intercambian una pequeña cantidad de impulso encaja mejor con lo que vemos hoy. No estamos ante una prueba definitiva. La señal estadística es prometedora, pero necesita más confirmaciones.Los próximos pasos incluyen observaciones más precisas del Fondo Cósmico de Microondas y estudios detallados de lente gravitacional. Si los resultados se repiten, los físicos van a tener nuevas pistas para buscar la naturaleza real de la materia oscura también en laboratorios terrestres.Este estudio no aparece de la nada. Durante más de dos décadas, científicos han explorado la posibilidad de que la materia oscura interactúe con otras partículas. Existen muchos trabajos previos que analizan cómo estas interacciones afectarían la formación de galaxias, la radiación del Big Bang y la distribución de materia en el cosmos.Los neutrinos ya han obligado antes a revisar los modelos. Durante años se pensó que no tenían masa. Hoy sabemos que sí la tienen, aunque sea mínima. Ese descubrimiento ya llevó a extender el modelo estándar de partículas.En los próximos años, telescopios como el Observatorio Vera Rubin van a medir el universo con un nivel de detalle nunca visto. Esos datos permitirán comprobar si esta interacción es real o si estamos frente a una coincidencia estadística. En ciencia, las ideas sobreviven cuando resisten nuevas mediciones.Nuevas observaciones sugieren que materia oscura y neutrinos podrían interactuar, ayudando a explicar una tensión cosmológica persistente. Si se confirma, el modelo actual del universo necesitará ajustes. Queremos saber qué piensas. Escucha Flash Diario en Spotify y acompáñanos cada día.Científicos detectan señales de interacción entre materia oscura y neutrinos, una pista que podría cambiar cómo entendemos el universo.BibliografíaSpace.com“It would be a fundamental breakthrough: Mysterious dark matter may interact with cosmic ghost particles”Por Robert Lea.Nature Astronomy“A solution to the S8 tension through neutrino–dark matter interactions”New Scientist“Ghostly particles might just break our understanding of the universe”Por Karmela Padavic-Callaghan.Universe Today“A New Study Finds a Subtle Dance Between Dark Matter and Neutrinos”Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Evacuación médica espacial

    Play Episode Listen Later Jan 9, 2026 7:10 Transcription Available


    Nasa ordena la primera evacuación médica de la Estación Espacial Internacional por la salud de un astronauta Por Félix Riaño @LocutorCoPor primera vez en más de sesenta y cinco años de vuelos tripulados, NASA ha tomado una decisión inédita: terminar antes de tiempo una misión espacial por una razón médica. La tripulación conocida como Crew-11 va a regresar a la Tierra antes de lo previsto tras detectarse una condición médica seria en uno de sus integrantes. La agencia no ha dado detalles sobre el diagnóstico, por respeto a la privacidad del paciente, pero sí ha sido clara en algo: no se trata de una lesión ni de un problema causado por las actividades espaciales.La decisión se anunció en una rueda de prensa en Washington y marca también la primera evacuación médica en la historia de la Estación Espacial Internacional, que lleva habitada de forma continua desde el año dos mil. ¿Qué tan preparada está una estación espacial para una situación así? ¿Y por qué, si solo una persona está enferma, deben volver los cuatro?  Un problema humano obliga a cambiar toda la agenda científica en órbita Crew-11 llegó a la Estación Espacial Internacional en agosto a bordo de una cápsula **SpaceX Crew Dragon. La misión estaba pensada para durar unos seis meses, con regreso programado para finales de febrero. El equipo está formado por la comandante estadounidense Zena Cardman, el astronauta veterano Mike Fincke, el japonés Kimiya Yui, de la agencia espacial JAXA, y el cosmonauta ruso Oleg Platonov.Todo parecía seguir el plan hasta que Nasa canceló, de forma repentina, una caminata espacial prevista para esta semana. Poco después se confirmó que uno de los astronautas había presentado una condición médica seria. Según explicó el administrador de Nasa, Jared Isaacman, la persona afectada está estable, pero existe un riesgo persistente que hace aconsejable el regreso inmediato.  La Estación Espacial Internacional cuenta con equipos médicos básicos, medicamentos y sistemas de comunicación seguros que permiten a médicos en la Tierra evaluar a los astronautas, casi como una consulta médica por videollamada. El problema aparece cuando el diagnóstico requiere pruebas avanzadas o tratamientos prolongados. En microgravedad, incluso algo que en la Tierra sería manejable puede volverse complejo.El jefe médico de Nasa, James Polk, fue claro: esta es la primera vez que una misión estadounidense se acorta por un tema de salud. Aunque no se trata de una evacuación de emergencia, la agencia ha decidido actuar con máxima precaución. Además, existe una regla clave: nunca puede haber más personas en la estación que asientos disponibles en las cápsulas acopladas, que funcionan como botes salvavidas. Por eso, aunque solo una persona esté enferma, todo el equipo debe regresar junto.  El plan ahora es realizar un regreso controlado en los próximos días. La cápsula Crew Dragon va a amerizar en el océano Pacífico, frente a la costa de California, con equipos médicos esperando para evaluar a los astronautas apenas toquen el agua. Desde allí serán trasladados al Centro Espacial Johnson, en Texas.La estación no va a quedar vacía. Permanecerán a bordo el astronauta estadounidense Chris Williams y dos cosmonautas rusos, quienes mantendrán operativos los sistemas básicos. Eso sí, como explicó el científico espacial Simeon Barber, parte del trabajo experimental tendrá que ponerse en pausa. La prioridad va a ser el mantenimiento y la seguridad, hasta que llegue la siguiente tripulación, prevista para febrero.Este episodio también demuestra algo importante: incluso con décadas de experiencia, el factor humano sigue marcando los límites de la exploración espacial.  Aunque esta es la primera evacuación médica de la Estación Espacial Internacional, no es la primera vez que la salud obliga a cambiar planes en el espacio. En mil novecientos ochenta y cinco, el cosmonauta soviético Vladimir Vasyutin regresó antes de tiempo de una estación espacial por una infección grave. Desde entonces, los protocolos médicos se han refinado mucho.Los astronautas reciben entrenamiento como oficiales médicos y están preparados para actuar ante problemas cardíacos, neurológicos o traumatismos. Aun así, como explicó el exastronauta y médico Tom Marshburn, el espacio permite estabilizar a una persona durante días, pero no mantener tratamientos largos.Este caso también llega en un momento especial: Nasa planea retirar la Estación Espacial Internacional entre dos mil treinta y dos mil treinta y uno. Cada incidente aporta información valiosa para futuras estaciones comerciales y para misiones más largas, como las que buscan llevar personas de nuevo a la Luna y, más adelante, a Marte. Nasa va a traer de vuelta antes de tiempo a la tripulación Crew-11 por una condición médica seria en uno de sus miembros. Es un hecho histórico que muestra hasta dónde llega la precaución en el espacio. Si te interesa entender cómo se cuida la vida humana más allá de la Tierra, sigue Flash Diario en Spotify y comparte este episodio. BibliografíaBBC News: https://www.bbc.co.uk/news/articles/cd9e2y7nkv8oThe Guardian: https://www.theguardian.com/science/2026/jan/08/nasa-spacewalk-medical-issue-astronautSpaceflight Now: https://spaceflightnow.com/2026/01/09/crew-11-to-cut-mission-short-and-return-to-earth-due-to-medical-issue/Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Gmail entra en la era Gemini

    Play Episode Listen Later Jan 8, 2026 7:49 Transcription Available


    Gmail activa inteligencia artificial Gemini para resumir correos, proponer tareas y convertir el inbox en asistentePor Félix Riaño @LocutorCoGmail va a cambiar otra vez. Google acaba de presentar una nueva forma de usar el correo electrónico, pensada para personas que reciben muchos mensajes todos los días y sienten que nunca terminan de ponerse al día. La novedad se llama AI Inbox y ya está en pruebas cerradas en Estados Unidos.Esta función lee los correos, entiende el contexto y propone acciones concretas, como responder un mensaje importante, pagar una factura o reagendar una cita. Todo funciona con el modelo de inteligencia artificial Gemini, integrado directamente en Gmail.Google dice que el objetivo es ayudarte a organizarte mejor. Pero también reconoce que la inteligencia artificial puede equivocarse. Entonces la pregunta aparece sola: ¿esto de verdad nos va a ahorrar tiempo o va a crear nuevos problemas?Punto de giro narrativoLa ayuda suena perfecta, pero confiarle tu correo a una IA genera dudas.Gmail nació en dos mil cuatro y hoy lo usan más de tres mil millones de personas en todo el mundo. En estos veinte años, el correo dejó de ser solo mensajes personales y pasó a ser contratos, facturas, tareas del colegio, compras y avisos de bancos.Para responder a ese caos, Google presentó AI Inbox, una nueva pestaña dentro de Gmail. Allí aparecen dos bloques principales. El primero muestra tareas sugeridas, como responder al entrenador de tu hijo o pagar una cuota antes de la fecha límite. El segundo bloque agrupa temas importantes, como compras, finanzas o entregas.Cada sugerencia lleva al correo original, para que puedas revisar el contexto completo y confirmar la información.Google ya intentó algo parecido en dos mil veintitrés, cuando su asistente aún se llamaba Bard. En ese momento, los resúmenes de correo fallaron con frecuencia y entregaron datos incorrectos. Eso dejó una sensación de desconfianza.Hoy, Google reconoce que Gemini puede cometer errores, y Gmail lo advierte claramente dentro de la interfaz. Para un correo casual, un error puede ser menor. Pero en un mensaje de trabajo, una cita médica o un pago, un fallo puede generar consecuencias reales.A esto se suma la preocupación por la privacidad. AI Inbox necesita leer todos los correos. Google asegura que esos datos no se usan para entrenar sus modelos y que el procesamiento ocurre en un entorno aislado. Además, todas estas funciones se pueden desactivar.Google va a desplegar estas funciones por etapas. AI Inbox empezará con un grupo reducido de usuarios de confianza en Estados Unidos. El inbox tradicional va a seguir existiendo y se podrá cambiar entre vistas cuando quieras.Al mismo tiempo, Google va a liberar funciones que antes eran de pago. Help Me Write va a estar disponible gratis y permitirá redactar correos desde una idea breve. Los AI Overviews resumirán hilos largos de correos y aparecerán automáticamente. Las respuestas sugeridas ahora se adaptarán mejor a tu tono personal.Los planes Google AI Pro y Ultra, desde veinte dólares al mes, añadirán corrección avanzada de estilo y búsquedas inteligentes que resumen todo tu correo sobre un tema específico.Este anuncio forma parte de una estrategia más amplia. Google está integrando Gemini en casi todos sus productos. El propio Sundar Pichai explicó que Gmail entra oficialmente en la “era Gemini”.Google quiere que dejes de usar herramientas externas para resumir correos o corregir textos. Todo quiere hacerlo dentro de Gmail.Por ahora, estas funciones solo estarán disponibles en inglés y en Estados Unidos. Google promete expansión a otros países y otros idiomas a lo largo del año. Latinoamérica y Europa tendrán que esperar un poco más para probar este nuevo inbox inteligente.Resumen final y recomendaciónGmail va a usar Gemini para leer correos, resumirlos y proponer tareas. Google promete orden y ahorro de tiempo. La confianza será la clave.Cuéntanos qué opinas y sigue Flash Diario en Spotify.BibliografíaWired – Google adds AI Inbox to GmailGoogle Blog – Gmail enters the Gemini eraCNBC – Google adds Gemini features to GmailThe Independent – Gmail brings more AI to your inboxTechCrunch – Gmail debuts a personalized AI InboxConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Peacock será la primera con Dolby Vision 2

    Play Episode Listen Later Jan 7, 2026 9:38 Transcription Available


    Peacock se adelanta a todosPeacock será la primera plataforma de streaming en ofrecer Dolby Vision 2 y nuevo audio avanzado antes que Netflix y Apple.  Por Félix Riaño @LocutorCo. En el CES dos mil veintiséis, la feria donde se definen muchas de las tecnologías que vamos a usar en los próximos años, una plataforma dio un paso inesperado. No fue Netflix. No fue Apple TV. Tampoco Disney Plus.La noticia llegó desde Peacock, una plataforma poco conocida fuera de Estados Unidos, pero que acaba de colocarse en el centro de una discusión técnica muy importante.Peacock anunció que será la primera plataforma de streaming del mundo en integrar Dolby Vision 2 y el nuevo sistema de audio Dolby AC-4.Este anuncio importa porque cambia cómo se procesan las imágenes y el sonido dentro del televisor, incluso durante transmisiones en vivo. Y plantea una pregunta clave: ¿qué está haciendo Peacock para llegar primero y qué significa esto para quien se sienta frente a la pantalla?  El avance técnico existe, pero entenderlo cambia por completo la percepción.  Antes de entrar en la tecnología, aclaremos qué es Peacock.Peacock es la plataforma de streaming de NBCUniversal. Allí se concentran películas de Universal, series originales, programas de televisión estadounidense y, sobre todo, una apuesta fuerte por eventos en vivo.Tiene alrededor de cuarenta y un millones de suscriptores. No compite por volumen, compite por tipo de contenido. Peacock transmite deportes como la NFL, la NBA, la Premier League y los Juegos Olímpicos.Eso explica por qué Peacock resulta ideal para probar nuevas tecnologías. El streaming en vivo es uno de los escenarios más exigentes para el video digital. No hay margen para correcciones posteriores.En ese contexto, Peacock anunció que va a emitir contenido usando Dolby Vision 2 y Dolby Atmos, apoyados por el nuevo audio Dolby AC-4, tanto en eventos en directo como en contenido bajo demanda.  Ahora vamos a la parte técnica, paso a paso. HDR significa Alto Rango Dinámico. En pocas palabras, es la capacidad de una imagen para mostrar detalles en zonas muy oscuras y muy iluminadas al mismo tiempo.En HDR básico, el televisor recibe una señal y aplica ajustes generales. En HDR dinámico, como Dolby Vision, el contenido incluye metadatos.Los metadatos son instrucciones. No son la imagen en sí, son datos que le dicen al televisor cómo debe mostrar esa imagen.Dolby Vision original trabaja con metadatos escena por escena. Eso ya era un salto importante.Dolby Vision 2 va más lejos. Funciona fotograma por fotograma. Cada imagen tiene sus propias instrucciones: cuánto brillo usar, cómo tratar los colores, cómo manejar el contraste y cómo procesar el movimiento.El televisor ya no adivina. Recibe órdenes muy precisas y las adapta a sus capacidades reales.Aquí ocurre algo muy interesante. Dolby Vision 2 no intenta convertir un televisor barato en uno caro. Lo que hace es conocer sus límites y trabajar dentro de ellos.Dolby prueba televisores en sus laboratorios y crea perfiles técnicos. Con esos perfiles, el sistema sabe cuánta luz puede emitir la pantalla, qué tan profundos son sus negros y cómo responde su procesador.Con esa información, los metadatos se traducen en decisiones precisas para cada fotograma.Eso permite mejorar detalles en sombras, evitar colores exagerados y reducir problemas de movimiento.En versiones avanzadas, incluso permite a los creadores decidir cuánta interpolación de movimiento se aplica en cada momento de una película o serie.Aquí entra también el audio. Dolby AC-4 reemplaza al códec actual usado en streaming. Es más eficiente y está pensado para manejar sonido envolvente moderno.Permite, por ejemplo, priorizar las voces desde la mezcla original, sin que el televisor tenga que procesarlas después.Este nivel de procesamiento no es gratuito. Exige chips con bloques dedicados para analizar y aplicar metadatos en tiempo real.En este momento, uno de los procesadores compatibles es el Pentonic 800 de MediaTek.Por eso no todos los fabricantes pueden adoptar Dolby Vision 2 de inmediato.Algunas marcas ya confirmaron soporte en modelos dos mil veintiséis, como Hisense, TCL y Philips.Otras tomaron caminos distintos. Samsung impulsa HDR10 Plus Advanced. LG ya confirmó que sus modelos de este año no lo soportarán.En medio de esa fragmentación, Peacock tomó una decisión clara: ser la plataforma donde esta tecnología se usa primero y se pone a prueba con contenido real.Dolby Vision 2 cambia cómo el televisor toma decisiones, usando metadatos fotograma por fotograma y audio más avanzado. Peacock llega primero porque apostó por el riesgo técnico.Cuéntanos si esto cambiaría tu forma de elegir televisor y sigue Flash Diario en Spotify.  Dolby Vision 2 usa metadatos fotograma por fotograma para que el televisor decida mejor cómo mostrar cada imagen.

    El nuevo Ladrillo Inteligente de Lego

    Play Episode Listen Later Jan 6, 2026 7:59 Transcription Available


    LEGO presentó en CES 2026 un ladrillo inteligente con sensores, sonido y luz, sin pantallas ni conexión a internetPor @LocutorCo Lead periodístico

    Cómo la tecnología permitió la captura de Nicolás Maduro en Venezuela

    Play Episode Listen Later Jan 5, 2026 11:43 Transcription Available


    Operación en CaracasCómo la tecnología permitió la captura de Nicolás Maduro en VenezuelaPor Félix Riaño @LocutorCoEn Venezuela, en su capital Caracas, ocurrió un hecho que ya es parte de la historia reciente: Estados Unidos capturó a Nicolás Maduro y a su esposa Cilia Flores durante una operación militar llamada Operation Absolute Resolve.La noticia fue contada desde el terreno por BBC, medio generalista de servicio público del Reino Unido, y ampliada por Reuters, una agencia internacional especializada en verificación y fuentes oficiales.En este episodio especial de Flash Diario vamos a hacer algo concreto y claro: primero entender qué pasó y luego explicar cómo la tecnología hizo posible esta operación, paso a paso, con lenguaje simple y sin suposiciones.Punto de giro narrativo (10 palabras)La clave no fue la fuerza, fue la infraestructura tecnológicaVamos con el relato completo, en orden, como ocurrió.Según la BBC, la orden final para iniciar la operación se dio a las 22:46 hora del este de Estados Unidos, lo que corresponde a 03:46 GMT. En Caracas todavía era plena madrugada. El objetivo era operar con oscuridad y sorpresa.Alrededor de las 02:00 hora local, habitantes de Caracas escucharon explosiones y vieron aeronaves sobrevolando la ciudad. Testigos hablaron de ventanas vibrando, ruidos intensos y confusión en grupos de mensajería. En varias zonas se registraron cortes de electricidad.Mientras eso ocurría, comenzaron a circular videos grabados por ciudadanos. La BBC explicó que su equipo de verificación analizó ese material y pudo ubicar puntos específicos alcanzados, entre ellos la base aérea Generalísimo Francisco de Miranda, conocida como La Carlota.Reuters añadió el contexto clave: la operación no fue improvisada. Hubo meses de preparación, ensayos con una réplica a tamaño real del lugar donde se encontraba el objetivo y una espera deliberada por mejores condiciones climáticas. Reuters también confirmó un dato central: participaron más de 150 aeronaves, que despegaron desde 20 bases distintas en el hemisferio occidental.Ese es el hecho noticioso. Ahora vamos a entenderlo desde la tecnología, sin repetir, siguiendo las capas que lo hicieron posible.Para comprender esta operación hay que pensarla como un sistema de cinco capas tecnológicas, todas necesarias y conectadas entre sí.Primera capa: vigilancia y datos.Antes de mover un solo helicóptero, el punto crítico es saber dónde está la persona objetivo y en qué momento. Reuters reporta que hubo trabajo de inteligencia durante meses, con información lo bastante precisa para ubicar a Nicolás Maduro en tiempo real. Esto se conoce como análisis de patrones de vida: observar rutinas, horarios y movimientos hasta reducir la incertidumbre. Sin estos datos, nada más funciona.Segunda capa: coordinación aérea y navegación.Mover más de 150 aeronaves desde 20 bases exige sincronización exacta. No se trata solo de despegar, sino de coordinar rutas, horarios, reabastecimiento, identificación de aeronaves amigas y ventanas seguras de vuelo. Aquí el clima es una variable técnica, no un detalle: Reuters explica que se retrasó la operación por nubosidad, porque volar bajo y entrar de noche requiere visibilidad controlada y sensores funcionando al máximo.Tercera capa: drones militares y sensores.Aquí es importante aclarar algo para no confundirnos. Los drones usados en este tipo de operaciones no son drones recreativos como los que se usan para turismo o fotografía. Son plataformas militares de inteligencia, vigilancia y reconocimiento, diseñadas para permanecer largas horas en el aire, detectar movimientos, captar señales y dar información continua a los centros de mando.Medios especializados en defensa, como The War Zone y Defence Blog, informaron sobre indicios del uso de drones de vigilancia furtiva en el contexto de esta operación. No se trata de “grabar un video”, sino de ofrecer una visión constante del entorno y apoyar decisiones en tiempo real.Cuarta capa: guerra electrónica y control de señales.Aquí ocurre la parte invisible. Air & Space Forces, un medio especializado en aviación militar, explicó que el poder aéreo tuvo como objetivo proteger helicópteros y fuerzas en tierra. Esto incluye interferir radares y comunicaciones del lado contrario.La guerra electrónica no es un ataque físico. Es ingeniería de radiofrecuencia: confundir sensores, degradar detecciones y ganar tiempo. Por eso, aunque la ciudad escucha aviones, el “combate” real ocurre en el espectro electromagnético.Quinta capa: electricidad e internet.Durante la operación, partes de Caracas quedaron a oscuras. El presidente Donald Trump dijo que la ciudad quedó sin luz por una capacidad técnica de Estados Unidos, sin explicar el método.Lo que sí es comprobable lo aporta NetBlocks, una organización independiente que mide conectividad. NetBlocks confirmó pérdidas de conexión a internet en zonas de Caracas coincidiendo con los cortes de energía.Esto se entiende fácil: sin electricidad se apagan antenas, repetidores y equipos de red. Cuando eso ocurre, cae el internet móvil, se dificulta comunicarse y la ciudad pierde coordinación básica justo en el momento más crítico.Al unir estas cinco capas, la historia queda clara.La captura de Nicolás Maduro en Caracas no se explica solo con soldados y helicópteros. Se explica con datos precisos, coordinación aérea, sensores avanzados, control de señales y dependencia de la infraestructura eléctrica y digitalde una ciudad moderna.La BBC mostró cómo la ciudad vivió la noche y verificó lo que circuló en redes. Reuters explicó la mecánica de fondo: preparación, clima, número de aeronaves y tiempos exactos. Air & Space Forces explicó el papel del poder aéreo y la guerra electrónica. NetBlocks aportó datos medidos que conectan apagones con caídas de internet.La conclusión es directa: en el siglo XXI, los conflictos ya no se libran solo en el terreno físico. También se libran en redes, sensores, energía y sistemas que usamos todos los díasUn último detalle ayuda a entender el impacto a largo plazo. Cuando se interrumpe la electricidad y la conectividad, la recuperación no es inmediata. Aunque vuelva la luz, los sistemas digitales necesitan reiniciarse, validarse y sincronizarse. Por eso, una operación tecnológica puede dejar efectos que duran más que la noche en la que ocurrió.Resumen final y recomendaciónEn Caracas, Venezuela, Estados Unidos capturó a Nicolás Maduro y a Cilia Flores en la operación Absolute Resolve. BBC narró la noche y verificó videos. Reuters explicó meses de preparación y un despliegue de más de 150 aeronaves. Air & Space Forces detalló el rol de la guerra electrónica. NetBlocks midió caídas de internet ligadas a apagones.Para seguir entendiendo este mundo conectado, sigue Flash Diario en Spotify. 

    Meta compra Manus

    Play Episode Listen Later Dec 31, 2025 8:02 Transcription Available


    Meta compra Manus, una startup de agentes de inteligencia artificial autónomos que ya genera más de cien millones de dólares al añoPor Félix Riaño @LocutorCoMeta acaba de cerrar una de las compras más comentadas del año en inteligencia artificial. La empresa de Mark Zuckerberg va a integrar agentes autónomos capaces de trabajar casi sin intervención humana. Se trata de Manus, una startup fundada por emprendedores chinos y hoy con sede en Singapur, que ya tiene millones de usuarios de pago y más de cien millones de dólares en ingresos anuales. ¿Qué cambia cuando una inteligencia artificial deja de responder y empieza a actuar por su cuenta?Cuando la inteligencia artificial deja de chatear y empieza a tomar decisiones.Meta Platforms ha anunciado la compra de Manus, una startup de inteligencia artificial que se ha hecho famosa por una idea muy concreta: crear agentes que trabajan de forma autónoma. Estos agentes reciben una instrucción general, planifican los pasos, ejecutan tareas complejas y entregan un resultado final sin que el usuario tenga que intervenir todo el tiempo.Manus nació en China en el año dos mil veintidós dentro de una empresa llamada Butterfly Effect. Con el aumento de las tensiones tecnológicas entre Estados Unidos y China, la empresa trasladó su sede a Singapur y dejó de operar en territorio chino. Desde allí lanzó su producto al mercado global.En pocos meses, Manus aseguró haber conseguido millones de usuarios y más de cien millones de dólares en ingresos recurrentes al año, gracias a suscripciones mensuales y anuales. Esa cifra llamó la atención de Meta, que lleva años apostándolo todo a la inteligencia artificial.—La gran pregunta es qué diferencia a Manus de otros asistentes como los chatbots tradicionales. La respuesta está en el nivel de autonomía. Mientras la mayoría de herramientas actuales esperan instrucciones paso a paso, Manus afirma que sus agentes pueden encargarse de todo el proceso.Por ejemplo, pueden hacer una investigación de mercado completa, analizar datos financieros, revisar hojas de vida, escribir código o planear un viaje entero. Todo con una sola orden inicial. Para muchos expertos, esto marca un cambio profundo en cómo usamos la inteligencia artificial en el trabajo diario.Pero también aparecen dudas. Manus fue fundada por emprendedores chinos y tuvo inversión de empresas de ese país. En Estados Unidos, cualquier proyecto de inteligencia artificial con raíces chinas despierta preocupación política. Algunos senadores ya han cuestionado el origen del capital y el acceso a datos sensibles. Meta ha respondido que, tras la compra, no quedará ninguna participación china y que Manus dejará cualquier operación pendiente en China.Meta ha sido clara en su estrategia. Manus va a seguir funcionando como servicio independiente, con sus planes de suscripción actuales, pero sus agentes se van a integrar poco a poco en productos como Facebook, Instagram y WhatsApp, donde ya existe Meta AI.La idea encaja con la visión de Mark Zuckerberg sobre una inteligencia artificial personal, presente en el día a día de las personas y las empresas. Meta quiere que estos agentes ayuden a organizar negocios pequeños, responder clientes, analizar información y automatizar tareas repetitivas.Según reportes de medios como The Wall Street Journal y Reuters, la operación estaría valorada entre dos mil y tres mil millones de dólares. Esto convierte a Manus en una de las compras más grandes de Meta en inteligencia artificial aplicada al mundo real, con ingresos comprobados.Para Meta, hay un mensaje claro hacia inversores y competidores. Esta vez no se trata solo de investigación, sino de una inteligencia artificial que ya gana dinero y que puede escalar a miles de millones de usuarios.La compra de Manus no llega sola. Durante este año, Meta ha acelerado su gasto en inteligencia artificial. En junio invirtió más de catorce mil millones de dólares para quedarse con casi la mitad de Scale AI, una empresa especializada en datos para entrenar modelos. También ha fichado talento directamente de empresas rivales como OpenAI y Google.Manus, por su parte, asegura haber procesado más de ciento cuarenta y siete billones de tokens de texto y datos, y haber creado más de ochenta millones de computadoras virtuales para ejecutar tareas de forma paralela. Son cifras enormes, pensadas para mostrar músculo tecnológico.Antes de la compra, Manus fue comparada con DeepSeek, otro desarrollo chino que llamó la atención por su rendimiento. Incluso Microsoft llegó a probar sus agentes en Windows once para crear páginas web a partir de archivos locales.Ahora, con Meta detrás, el reto será ganar la confianza de empresas que han visto a Meta envuelta en polémicas por el uso de datos. La pregunta ya no es si los agentes autónomos funcionan, sino quién se atreverá a usarlos a gran escala.Meta apuesta fuerte por una inteligencia artificial que actúa sola y ya genera ingresos reales. Manus pasa de startup prometedora a pieza central del futuro de Meta. La carrera por los agentes autónomos acaba de acelerar. Cuéntanos qué opinas y sigue Flash Diario en Spotify.

    Estación espacial con gravedad

    Play Episode Listen Later Dec 30, 2025 8:17 Transcription Available


    Rusia patenta una estación espacial giratoria que creará gravedad artificial para cuidar la salud de astronautas. Por Félix Riaño @LocutorCo  Rusia ha presentado el diseño de una estación espacial que gira para generar gravedad artificial. La idea es sencilla de explicar y compleja de construir: hacer rotar módulos habitables para que la fuerza centrífuga empuje a los astronautas contra el suelo. Así podrían caminar, dormir y trabajar sin flotar. El proyecto parte de un diseño patentado por Energia, justo cuando la International Space Station se acerca a su retiro definitivo. La pregunta es directa: ¿vamos a ver por primera vez una estación espacial donde vivir se parezca más a estar en la Tierra?La idea es antigua, pero los obstáculos técnicos siguen siendo enormes  Desde hace décadas, vivir en el espacio implica flotar. En la Estación Espacial Internacional, los astronautas pasan meses en microgravedad. Esto afecta al cuerpo humano de muchas formas. Los huesos pierden densidad. Los músculos se debilitan. El corazón se acostumbra a bombear sangre sin esfuerzo. Incluso la vista y la memoria pueden cambiar.Rusia quiere atacar ese problema de raíz. El diseño patentado describe una estación que gira cinco veces por minuto. Al hacerlo, genera una fuerza que imita el cincuenta por ciento de la gravedad de la Tierra. No sería como estar en casa, pero sí lo bastante fuerte para caminar sin despegar los pies del suelo.El concepto recuerda a escenas clásicas del cine, como la estación giratoria de 2001: A Space Odyssey, donde los personajes caminan por paredes curvas como si fuera algo normal. El problema de la gravedad no es nuevo. Desde los primeros vuelos espaciales se sabe que el cuerpo humano no está diseñado para vivir mucho tiempo sin peso. En la Estación Espacial Internacional, los astronautas hacen ejercicio unas dos horas al día solo para frenar el deterioro físico. Aun así, muchos regresan a la Tierra con dificultad para caminar.Crear gravedad artificial parece una solución clara, pero construirla es todo menos simple. Una estación giratoria necesita un equilibrio perfecto. Si gira muy rápido, provoca mareos. Si gira lento, no genera fuerza suficiente. En este diseño, los módulos habitables tendrían que extenderse unos cuarenta metros desde el centro para lograr el efecto deseado.Además, montar algo así en órbita es un desafío enorme. Cada pieza debe lanzarse por separado y ensamblarse en el espacio. Acoplar naves a una estructura que está girando añade riesgos que los ingenieros conocen bien.  El plan ruso no llega con fechas ni presupuestos confirmados. Es un diseño patentado, una señal de intención más que una obra en marcha. Aun así, aparece en un momento clave. La Estación Espacial Internacional va a retirarse alrededor de dos mil treinta. Rusia, a través de Roscosmos, ya trabaja en su propia estación orbital, conocida como ROSS, y estudia reutilizar algunos de sus módulos actuales.Mientras tanto, otras potencias avanzan por caminos distintos. NASA y la European Space Agency preparan la estación Lunar Gateway, que va a orbitar la Luna como paso previo a futuras misiones. En paralelo, empresas privadas también exploran estaciones giratorias.Este diseño ruso plantea un futuro mixto: un núcleo central sin rotación para experimentos en microgravedad y brazos exteriores con gravedad parcial para la vida diaria. Una especie de laboratorio y hogar al mismo tiempo.  La idea de una estación giratoria no nació hoy. A comienzos del siglo veinte, el científico ruso Konstantin Tsiolkovskyya hablaba de hábitats espaciales que giraban. Más tarde, el ingeniero Wernher von Braun popularizó el concepto en revistas y documentales.En mil novecientos setenta y cinco, NASA y la Universidad de Stanford propusieron el famoso Stanford Torus, una gigantesca estación en forma de anillo de casi dos kilómetros de diámetro, pensada para diez mil personas. Nunca se construyó.Más recientemente, la empresa estadounidense Vast trabaja en su propio concepto giratorio llamado Haven. Lanzaron un pequeño módulo de prueba y esperan empezar a enviar piezas mayores a partir de dos mil veintiséis.Todo esto muestra que la gravedad artificial sigue siendo una promesa pendiente. Cada intento deja lecciones técnicas, médicas y humanas para el siguiente. Rusia ha patentado una estación espacial que gira para crear gravedad artificial y cuidar la salud de los astronautas. La idea no es nueva, pero el momento es clave. El fin de la Estación Espacial Internacional abre la puerta a nuevas formas de vivir en órbita. ¿Te gustaría vivir en una estación donde se pueda caminar? Cuéntalo y sigue Flash Diario en Spotify.  BibliografíaThe Telegraphhttps://www.telegraph.co.uk/world-news/2025/12/29/russia-plans-anti-gravity-space-station/Interesting Engineeringhttps://interestingengineering.com/space/russia-patents-space-station-with-artificial-gravityThe Brighter Side of Newshttps://www.thebrighterside.news/post/russia-patents-a-modular-spacecraft-designed-to-create-artificial-gravity/The US Sunhttps://www.the-sun.com/tech/15708063/russia-plans-space-station-artificial-gravity-astronauts-walk/Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Cambiar tu Gmail

    Play Episode Listen Later Dec 29, 2025 6:30 Transcription Available


    Google va a permitir cambiar direcciones @gmail.com sin perder datos ni accesos.Por Félix Riaño @LocutorCoDurante años, tu dirección de Gmail era una decisión para toda la vida. Si elegiste un nombre extraño, infantil o poco profesional, no había marcha atrás. Podías cambiar tu nombre visible, pero la dirección terminada en @gmail.com quedaba fija para siempre. Muchas personas convivieron con eso por trabajo, estudios y trámites oficiales. Hoy esa regla empieza a moverse.Google confirmó en una página de soporte que va a habilitar, de forma gradual, una opción muy esperada: cambiar tu dirección @gmail.com por otra nueva, sin crear una cuenta distinta y sin perder nada. La información apareció primero en India y ya está generando preguntas claras. ¿Cuándo llegará a otros países? ¿Qué pasa con los correos antiguos? ¿Habrá riesgos reales para tu cuenta?El giro llega tardeDurante mucho tiempo, Gmail fue rígido con este tema. Si tu cuenta terminaba en @gmail.com, la respuesta oficial era simple: no se puede cambiar. La única salida era crear otra cuenta desde cero. Eso implicaba mover contactos, fotos, documentos, suscripciones y accesos a servicios como YouTube, Maps o Drive. Para muchas personas, ese cambio era inviable.Ahora, en un documento oficial de ayuda, Google explica un proceso nuevo. El texto aparece, por ahora, solo en hindi. Aun así, el mensaje es claro. Vas a poder cambiar tu dirección @gmail.com por otra también terminada en @gmail.com. No será una cuenta nueva. Será la misma cuenta, con dos direcciones activas. La original quedará como alias y seguirá funcionando.Este cambio llega con reglas claras que conviene entender bien. La primera: no es inmediato para todo el mundo. Google dice que el despliegue será gradual. Eso significa que algunas personas lo verán antes y otras tendrán que esperar semanas o meses.La segunda regla es el tiempo. Una vez hagas el cambio, no vas a poder modificar ni eliminar direcciones durante doce meses completos. Un año entero. Eso obliga a pensar bien el nuevo nombre antes de confirmarlo.También hay límites. Cada cuenta podrá tener hasta cuatro direcciones en total. Es decir, la original más tres cambios posibles a lo largo del tiempo. Además, tu dirección antigua seguirá apareciendo en algunos lugares, como eventos viejos de Google Calendar creados antes del cambio. No todo se actualiza de golpe.La parte más tranquila de esta historia es la que tiene que ver con tus datos. Google asegura que nada se pierde. Fotos, correos antiguos, mensajes, archivos de Drive y compras seguirán exactamente igual.Vas a poder iniciar sesión con la dirección vieja o con la nueva. Ambas llevarán a la misma cuenta. Los correos enviados a cualquiera de las dos direcciones llegarán al mismo buzón. Incluso vas a poder seguir enviando correos desde la dirección antigua si así lo deseas.La dirección original seguirá siendo tuya para siempre. Nadie más podrá usarla. Eso reduce riesgos de suplantación o confusión. Cuando la función esté activa, el cambio se hará desde “Mi cuenta”, en la sección de información personal, tanto en computador como en móvil.Este movimiento acerca a Gmail a lo que ya ofrecen otros servicios de correo. Outlook, por ejemplo, permite crear alias y cambiar direcciones desde hace tiempo. En Google Workspace, el servicio para empresas, estas opciones existen, pero bajo administración y pago.Por ahora, todo indica que el despliegue empezó en India y luego se irá ampliando a más países. No hay fecha oficial para América Latina o Europa, pero el lenguaje de Google apunta a un lanzamiento global progresivo.Si hoy entras a la configuración y no ves la opción, es normal. No significa que tu cuenta esté excluida. Significa que todavía no te toca. La recomendación es simple: revisar de vez en cuando la sección de correo en tu cuenta de Google y esperar el aviso.

    Apple abre el iPhone en Europa

    Play Episode Listen Later Dec 24, 2025 8:52 Transcription Available


    iOS 26.3 abre el iPhone a relojes y audífonos de otras marcas en Europa  Por Félix Riaño @LocutorCo  Apple acaba de hacer algo que durante años parecía impensable. Con iOS 26.3, el iPhone empieza a llevarse mejor con dispositivos que no son de Apple. Esto ocurre en Europa y no llega por voluntad propia, llega por obligación legal. Según explica Gadget Hacks, audífonos y relojes de otras marcas ahora pueden conectarse más fácil y recibir notificaciones completas desde el iPhone.Las dudas aparecen de inmediato: hasta dónde va a llegar esta apertura, qué funciones siguen siendo exclusivas y por qué este cambio se aplica en Europa y no en el resto del mundo.  Apple abre puertas, pero deja llaves en su bolsillo.  iOS 26.3 introduce cambios que alteran la forma en que el iPhone se conecta con otros dispositivos dentro de la Unión Europea. Apple activa nuevas funciones de interoperabilidad tras la presión directa de la Comisión Europea, en el marco de la Ley de Mercados Digitales, conocida como DMA, tal como recoge MacRumors.La lógica de esta ley es fácil de entender. Si una empresa controla una plataforma que millones de personas usan cada día, no puede cerrar el acceso a funciones básicas para favorecer solo a sus propios productos. En este caso, el iPhone actúa como esa plataforma dominante.Con esta actualización, Apple habilita dos funciones que antes estaban casi reservadas a su propio ecosistema: el emparejamiento por proximidad para accesorios de terceros y el reenvío completo de notificaciones a relojes inteligentes que no son Apple Watch. Son cambios técnicos que impactan directamente el uso cotidiano del teléfono.  Durante años, usar accesorios que no fueran de Apple con un iPhone implicaba más pasos y más fricción. Emparejar audífonos requería entrar a Ajustes, buscar Bluetooth y seguir varios pasos. Con AirPods, el proceso era inmediato. Esa diferencia se convirtió en una ventaja competitiva clara.Con los relojes pasaba algo similar. El Apple Watch recibía notificaciones completas, con texto, nombre de la aplicación y opciones de interacción. Otros relojes recibían avisos parciales o inestables. Como explica SamMobile, esto hacía que relojes como los Galaxy Watch perdieran atractivo cuando se usaban con iPhone.Aquí surge una duda central para los reguladores europeos: esa diferencia responde a límites técnicos reales o a decisiones de diseño pensadas para empujar al usuario hacia productos Apple. La DMA responde obligando a Apple a abrir ese acceso.  Con iOS 26.3, Apple permite que accesorios de terceros se emparejen por proximidad. En la práctica, unos audífonos de otra marca se pueden conectar acercándolos al iPhone y tocando una tarjeta en pantalla. El proceso se vuelve rápido y sencillo, muy similar al de los AirPods, como detalla MacRumors.También aparece un nuevo sistema de reenvío de notificaciones. Desde Ajustes, el usuario puede elegir un reloj inteligente de otra marca para recibir notificaciones completas del iPhone. Según 9to5Mac, esta función coloca a relojes de terceros mucho más cerca de la experiencia del Apple Watch.Apple mantiene un límite claro: las notificaciones solo se envían a un dispositivo a la vez. Si se activa un reloj de otra marca, el Apple Watch deja de recibirlas. Apple cumple la norma, pero sigue marcando el perímetro.  Estas funciones solo están activas en la Unión Europea. En el resto del mundo, los menús aparecen en el sistema, pero no funcionan. Apple aplica una estrategia muy precisa: cumplir exactamente donde la ley lo exige.La Comisión Europea, citada por 9to5Mac, ha celebrado estos cambios como un paso hacia un ecosistema digital más conectado. Para Apple, el riesgo económico explica el cuidado extremo. Las multas por incumplir la DMA pueden llegar hasta el diez por ciento de su facturación global anual.Además, este proceso no termina aquí. La Unión Europea también exige alternativas a AirDrop y AirPlay antes de 2026, mayor apertura del chip NFC para pagos y acceso a tecnologías avanzadas de audio. iOS 26.3 es apenas la primera señal visible de una transformación más amplia del iPhone en Europa.  iOS 26.3 empieza a cambiar la relación entre el iPhone y los dispositivos de otras marcas en Europa. Hay más opciones y menos fricción. La duda que queda es si este modelo se va a extender a otros países. Cuéntanos qué opinas y sigue Flash Diario en Spotify.  iOS 26.3 abre el iPhone a relojes y audífonos de otras marcas en Europa por presión legal.  

    Spotify bajo ataque

    Play Episode Listen Later Dec 23, 2025 8:27 Transcription Available


    Un grupo activista pirateó Spotify y afirma haber copiado metadatos y millones de archivos de audio Por Félix Riaño @LocutorCoSpotify confirma que un grupo activista logró copiar grandes volúmenes de información de su catálogo musical. La situación gira alrededor de metadatos públicos y de una parte de los archivos de audio alojados en la plataforma. Según los reportes, el grupo detrás de esta acción se presenta como un proyecto de preservación cultural y asegura haber reunido una base de datos musical sin precedentes. Spotify ya desactivó las cuentas implicadas y activó nuevas medidas de protección. La pregunta es directa y preocupa a artistas, sellos y oyentes: ¿estamos ante un caso de preservación digital o frente a un nuevo episodio de piratería masiva disfrazada de archivo cultural?Preservar cultura suena bien, pero los derechos de autor quedan en riesgo. Todo comienza con una publicación en Anna's Archive, un buscador conocido por alojar bibliotecas digitales no oficiales de libros y artículos científicos. Esta vez, el foco fue la música. El grupo afirma haber copiado información de Spotify a gran escala usando accesos públicos y técnicas para sortear protecciones digitales. Hablan de 256 millones de filas de metadatos musicales y de 86 millones de archivos de audio. En conjunto, el material ocuparía cerca de 300 terabytes, una cifra que equivale a miles de discos duros domésticos llenos hasta el borde.  Spotify reconoce que existió un acceso no autorizado y asegura que ya está investigando. La empresa explica que se trató de datos públicos combinados con métodos ilegales para acceder a parte del audio. Por ahora, solo los metadatos han sido liberados públicamente. El problema va más allá de la cantidad de datos. Los metadatos incluyen nombres de canciones, artistas, álbumes, portadas y códigos ISRC, que funcionan como el número de identificación de cada grabación en el mundo. Con esa información, cualquier persona con conocimientos técnicos podría reconstruir catálogos completos y analizarlos a fondo. Anna's Archive sostiene que su objetivo es evitar que la música desaparezca si una plataforma cambia políticas, elimina contenido o cierra. El argumento conecta con una preocupación real: el streaming no es propiedad, es acceso temporal. Pero aquí aparece la tensión. Este archivo también podría facilitar copias no autorizadas, entrenar sistemas de inteligencia artificial sin licencias o crear servidores privados que reproduzcan música sin pagar derechos. Para los artistas, sobre todo los independientes, el temor es claro: menos control y menos ingresos. Spotify ya respondió. La empresa desactivó las cuentas implicadas, reforzó sus sistemas de detección y dejó claro que trabaja con la industria musical para proteger a los creadores. También subrayó que este episodio no afecta datos personales de los usuarios.El grupo activista planea liberar los archivos de audio por etapas, empezando por las canciones más escuchadas, usando los propios datos de popularidad de Spotify. Dicen que la calidad del audio varía para reducir el tamaño de los archivos, lo que refuerza su discurso de archivo funcional y no de alta fidelidad.El desenlace sigue abierto. Habrá investigaciones, posibles acciones legales y un debate que ya está sobre la mesa: cómo preservar la cultura digital sin romper el modelo que paga a quienes la crean. Este caso puede convertirse en un precedente incómodo para toda la industria musical. Para entender la escala, conviene comparar. MusicBrainz, uno de los archivos musicales abiertos más grandes y legales del mundo, reúne alrededor de cinco millones de canciones. El archivo atribuido a Anna's Archive multiplica esa cifra muchas veces y cubre casi todo lo que realmente se escucha en Spotify.Los propios datos filtrados muestran algo llamativo: una pequeña fracción de canciones concentra la mayoría de las reproducciones, mientras millones de temas apenas reciben atención. Ese patrón refuerza el discurso del grupo, que critica el enfoque del streaming en la popularidad.También aparece otra preocupación: el uso de estos datos para entrenar modelos de inteligencia artificial musical sin acuerdos de licencia. Ya ocurrió antes con textos e imágenes. La música podría ser el siguiente campo de batalla. Este episodio deja claro que la tecnología avanza más rápido que las reglas que buscan ordenarla.Un grupo activista afirma haber copiado gran parte del catálogo de Spotify en nombre de la preservación cultural. Spotify investiga y refuerza su seguridad. El debate entre acceso, archivo y derechos de autor queda abierto. Cuéntanos qué opinas y sigue Flash Diario en Spotify BibliografíaBillboardPCMagTom's HardwareMusicAllyGizmodoThe Riff ReportConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    El planeta limón que nadie entiende

    Play Episode Listen Later Dec 22, 2025 8:58 Transcription Available


    Un planeta fuera del Sistema Solar desconcierta a la ciencia por su forma, su atmósfera y su origen  Por Félix Riaño @LocutorCo A más de mil kilómetros por segundo, una estrella muerta gira como un faro en el espacio profundo. A su alrededor, muy cerca, hay un objeto que no debería existir. Tiene el tamaño de Júpiter, la forma de un limón aplastado y una atmósfera hecha casi por completo de carbono. No tiene agua. No tiene oxígeno. No tiene nitrógeno. Y nadie sabe cómo pudo formarse. El PSR J2322-2650b se ha convertido en uno de los mayores misterios recientes de la astronomía moderna. Tal vez no sea un planeta como creemos.  Vamos a explicar qué se ha descubierto y por qué tiene tan desconcertada a la comunidad científica. Este objeto se encuentra a unos dos mil años luz de la Tierra y orbita un púlsar. Un púlsar es el núcleo colapsado de una estrella que explotó como supernova. Tiene casi la masa del Sol, pero comprimida en un espacio similar al tamaño de una ciudad. Gira muy rápido y lanza radiación constantemente. El planeta gira alrededor de ese púlsar a una distancia de apenas un millón seiscientos mil kilómetros. Para ponerlo en contexto, la Tierra está a unos ciento cincuenta millones de kilómetros del Sol. Por esa cercanía extrema, un año en este planeta dura solo unas ocho horas. La gravedad del púlsar lo estira de forma brutal, tanto que su diámetro ecuatorial es casi un cuarenta por ciento mayor que su diámetro polar. Por eso los astrónomos lo describen como un planeta con forma de limón.  Este mundo fue observado con el James Webb Space Telescope, que permitió analizar su atmósfera con un nivel de detalle nunca visto en un sistema de este tipo.  Aquí empieza el verdadero problema. Cuando los científicos estudiaron la atmósfera de PSR J2322-2650b esperaban encontrar gases comunes, como vapor de agua, metano o dióxido de carbono. Pero lo que apareció fue algo totalmente distinto. La atmósfera está dominada por helio y por carbono molecular, formas simples de carbono que casi nunca aparecen solas en planetas.  El carbono suele unirse a otros elementos. Para que exista de esta forma, casi no puede haber oxígeno ni nitrógeno. Y eso es justo lo que ocurre aquí. Entre más de ciento cincuenta planetas estudiados con este nivel de detalle, ninguno muestra una composición similar. Las temperaturas tampoco ayudan a explicarlo. En el lado más frío del planeta se alcanzan unos seiscientos cincuenta grados Celsius. En el lado más caliente, más de dos mil grados Celsius.  Con esos valores, el carbono debería reaccionar con otros elementos. Pero no lo hace. Esto rompe las teorías actuales sobre cómo se forman los planetas y cómo evolucionan sus atmósferas. Los modelos conocidos no encajan. Ninguno.  Ante este rompecabezas, los científicos manejan varias ideas. Una posibilidad es que este objeto no sea un planeta en el sentido clásico. Podría ser el resto de una estrella que orbitaba el púlsar y que fue perdiendo masa durante millones de años, como ocurre en los sistemas llamados “viuda negra”. En esos sistemas, el púlsar va despojando poco a poco a su compañero hasta casi hacerlo desaparecer.  Otra idea es que estemos viendo un tipo de objeto totalmente nuevo, algo que aún no tiene nombre. Un cuerpo que logró mantenerse estable alrededor de un púlsar durante miles de millones de años, resistiendo una radiación extrema y fuerzas gravitatorias enormes. En ese caso, la ciencia tendría que ampliar su definición de lo que puede existir en el universo.  Los datos del Webb sugieren que en su atmósfera pueden formarse nubes de hollín hechas de carbono. Con el tiempo, ese carbono podría cristalizar en el interior del planeta y formar diamantes. Un mundo rojo, cubierto de polvo oscuro, con tormentas que siguen su forma alargada. Un lugar que parece ciencia ficción, pero es real.  Por ahora, los investigadores van a buscar más sistemas similares. Solo así podrán saber si este planeta es una rareza absoluta o el primer ejemplo de una familia desconocida de mundos extremos.  Este hallazgo fue posible porque el sistema tiene una ventaja poco común. El púlsar emite sobre todo radiación de alta energía, como rayos gamma, que el Webb no detecta. Eso permite observar la luz del planeta sin que la estrella lo opaque, algo que no suele ocurrir con estrellas normales.  Además, este es el único planeta conocido con masa, tamaño y temperatura similares a un Júpiter caliente que orbita un púlsar. De los más de seis mil exoplanetas registrados hasta ahora, solo unos pocos están asociados a púlsares, y ninguno se parece a este.  El estudio fue publicado en The Astrophysical Journal Letters y ha sido destacado por la NASA y por medios como The New York Times. Todos coinciden en lo mismo: este objeto no encaja en ninguna caja conocida.Lejos de ser frustrante, este tipo de descubrimientos son los que empujan a la ciencia a avanzar. Cada vez que aparece algo así, las teorías se ajustan, se amplían o se descartan. Y eso nos acerca un poco más a entender cómo funciona realmente el universo.  Un planeta con forma de limón, una atmósfera de carbono y un origen desconocido acaba de poner en jaque a la astronomía. Vamos a seguir atentos a este misterio cósmico. Cuéntanos qué opinas y acompáñanos en Flash Diario  

    Fortnite Winterfest 2025

    Play Episode Listen Later Dec 19, 2025 7:26 Transcription Available


    Fortnite activa Winterfest 2025 con nieve, colaboraciones, regalos diarios y cambios jugables hasta eneroPor Félix Riaño @LocutorCoFortnite ya encendió oficialmente Winterfest 2025. El evento de fin de año transforma la isla con nieve, decoraciones festivas y una avalancha de contenido temporal. Desde hoy y hasta el 5 de enero de 2026, los jugadores van a encontrar colaboraciones muy llamativas, objetos clásicos que regresan al juego y una cabaña especial llena de sorpresas diarias. También aparecen nuevas mecánicas, un jefe peculiar y un enfoque inesperado en una de las franquicias más promocionadas. ¿Todo lo que parecía grande realmente lo es dentro del juego?La publicidad promete magia, pero la experiencia cuenta otra historia: Poco Harry PotterWinterfest 2025 ya está activo en Fortnite y se va a extender hasta el 5 de enero de 2026. Durante este periodo, Epic Games vuelve a modificar el battle royale con una ambientación navideña clara. La mitad norte del mapa aparece cubierta de nieve y varias zonas reciben árboles, luces y decoraciones de temporada.Se suma un nuevo punto de interés llamado Clawsy Lodge, una zona de cabañas pensada para aterrizajes rápidos y combates intensos al inicio de la partida. Además, regresa la cabaña de Winterfest, accesible desde el lobby. Allí se puede abrir un obsequio por día, hasta completar catorce en total.Un detalle clave es que estos premios se acumulan aunque no entres todos los días. Puedes volver más tarde y reclamar todo de una sola vez.Winterfest vuelve a ser un evento pensado para entrar, explorar y volver sin presión.La conversación aparece cuando se analizan las colaboraciones. Winterfest 2025 incluye cruces con Harry Potter, Sabrina Carpenter, Hatsune Miku, Bleach, SpongeBob y Volver al Futuro. En cantidad, el evento es enorme. En integración jugable, no todas las marcas reciben el mismo trato.Harry Potter destaca en el material promocional y en la ambientación visual de la cabaña, con referencias claras al mundo mágico. Pero dentro de las partidas, su presencia es muy limitada. No hay zonas del mapa dedicadas, no hay objetos especiales ni misiones propias. Todo queda concentrado en cosméticos de tienda y marketing.Esto ha generado debate entre jugadores porque Fortnite suele llevar sus grandes colaboraciones al centro del gameplay. Aquí eso no ocurre. Epic Games no ha explicado si este enfoque fue planeado desde el inicio o ajustado más tarde.Mientras algunas colaboraciones se quedan en lo visual, otras sí alteran la forma de jugar. Volver al Futuro es el mejor ejemplo. El DeLorean aparece como vehículo dentro del mapa. Al alcanzar ochenta y ocho millas por hora, activa una animación de viaje temporal y añade un cofre especial en el techo.Ese cofre contiene armas del botín clásico de Fortnite, como el fusil de asalto original y la escopeta de palanca. Ese mismo botín clásico también aparece en los presentes del evento, lo que cambia el ritmo de las partidas y mezcla estilos de juego antiguos con el actual.Regresan armas invernales como la granada de tormenta de nieve y el lanzador de bolas de nieve. Además, llega un nuevo jefe: el Yule Trooper. Al derrotarlo, puedes jugar como él, pero con un efecto permanente de pies congelados que vuelve cada movimiento un riesgo.En la tienda, Winterfest 2025 funciona como escaparate de skins festivas. Sabrina Carpenter recibe una versión navideña llamada Santa ‘Brina. Hatsune Miku aparece con atuendo invernal. Bleach suma cuatro personajes principales y SpongeBob aporta el Patty Wagon como vehículo especial.También hay filtraciones de colaboraciones aún no confirmadas, como Home Alone o Batman Beyond. En paralelo, Epic conecta Winterfest con su ecosistema. Hogwarts Legacy estuvo disponible sin costo en la Epic Games Store hasta el 18 de diciembre. Quienes jugaron al menos dos horas desbloquearon un accesorio exclusivo para Fortnite.Rocket League también participa con eventos temáticos de las casas de Hogwarts. Todo refuerza una idea clara: Fortnite ya no vive aislado. Winterfest es una vitrina de ese universo conectado.Winterfest 2025 trae nieve, colaboraciones, obsequios diarios y cambios jugables que mezclan nostalgia y humor. Algunas promesas se sienten más grandes en la publicidad que en el juego. Entra, prueba el evento y saca tus propias conclusiones. Y sigue Flash Diario en Spotify para más tecnología, ciencia y entretenimiento digital.Winterfest 2025 transforma Fortnite con nieve, colaboraciones famosas, obsequios diarios y decisiones creativas que están dando mucho de qué hablar.BibliografíaGameSpotIGNEpic GamesHarryPotter.comVICESi quieres, en el siguiente paso puedo generar la imagen de portada realista ajustada exactamente a este guion (tono vibrante, sin texto, cuadrada).Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    ChatGPT desafía a Nano Banana

    Play Episode Listen Later Dec 18, 2025 7:20 Transcription Available


    AI lanza ChatGPT Images para competir con Nano Banana de GooglePor Félix Riaño @LocutorCoOpenAI acaba de mover una ficha clave en la carrera de la inteligencia artificial visual. Esta semana empezó el despliegue de ChatGPT Images, una nueva experiencia dentro de ChatGPT pensada para crear y editar imágenes de forma más rápida, precisa y estable. El motor detrás de este cambio se llama GPT Image 1.5, y llega con un objetivo claro: plantar cara a Nano Banana, el editor de imágenes de Google que se volvió viral en las últimas semanas.La promesa de OpenAI es directa y fácil de entender incluso para niños: imágenes que tardan menos en generarse, cambios más exactos cuando pides una edición y menos errores raros en detalles como texto, caras o iluminación. Además, ChatGPT ahora tiene una pestaña dedicada solo a imágenes, algo que cambia la forma en la que la gente crea y experimenta. ¿Estamos viendo el inicio de una nueva guerra creativa entre Google y OpenAI?Ser más rápido no siempre significa verse mejorChatGPT Images ya está disponible dentro de ChatGPT y también para desarrolladores a través de la API con el nombre GPT Image 1.5. Según OpenAI, este modelo genera imágenes hasta cuatro veces más rápido que la versión anterior y sigue mejor las instrucciones del usuario. Dicho de forma simple: si pides cambiar algo puntual en una foto, el sistema va a tocar solo eso y va a respetar lo demás.El nuevo espacio de imágenes funciona como un pequeño estudio creativo. Permite crear desde cero, editar fotos existentes y explorar ideas con filtros y ejemplos en tendencia. Ya no todo depende de escribir el prompt perfecto. Ahora también puedes inspirarte viendo qué están creando otras personas.En pruebas independientes, GPT Image 1.5 llegó al primer lugar en rankings de generación de imágenes, superando por poco a Nano Banana Pro de Google. En números, eso suena fuerte. En la práctica, la diferencia visual aún genera debate.Aquí aparece la parte incómoda. Aunque GPT Image 1.5 lidera algunos rankings técnicos, las comparaciones reales muestran resultados muy parecidos entre ChatGPT Images y Nano Banana. En ediciones simples, como cambiar una foto nocturna a diurna, varios periodistas notaron que la versión de Google se ve más natural.Nano Banana sorprendió porque imitó errores típicos de la fotografía con móviles, como ruido, desenfoques suaves o luces imperfectas. Eso hizo que muchas imágenes parecieran fotos reales. ChatGPT Images mejora mucho frente a versiones anteriores, pero todavía hay casos donde el resultado se siente demasiado limpio o artificial.Además, los usuarios gratuitos tendrán acceso limitado, algo que ya pasa en otras herramientas de IA. Esto deja la pregunta abierta: ¿basta con ser más rápido y más preciso en teoría, o la percepción visual seguirá mandando en esta competencia?OpenAI no está apostando todo a una sola función. ChatGPT Images forma parte de una estrategia más grande: convertir a ChatGPT en una aplicación para casi todo. Texto, voz, imágenes, video y ahora una experiencia visual dedicada.GPT Image 1.5 destaca cuando se trata de ediciones encadenadas. Puedes pedir varios cambios seguidos sin que la imagen se descontrole. También mejora bastante el manejo de texto dentro de imágenes, algo clave para carteles, camisetas o diseños simples.Para creadores, estudiantes y pequeños negocios, esto significa menos pasos y menos herramientas externas. Para Google, significa que Nano Banana ya no corre solo. La pelea ahora es directa, constante y muy visible. Y como suele pasar en tecnología, quien gana al final es quien usa estas herramientas todos los días.El lanzamiento de ChatGPT Images llega en un momento de máxima presión para OpenAI. En las últimas semanas, Google presentó Gemini 3 y reforzó su ecosistema creativo integrando Nano Banana en servicios como Google Fotos, Mensajes y el buscador.OpenAI respondió rápido. Primero lanzó GPT-5.2 y luego este nuevo modelo de imágenes. Según la empresa, GPT Image 1.5 mejora la consistencia entre ediciones, mantiene mejor los rasgos de personas y respeta la composición original de las fotos.Para desarrolladores, el modelo ya está disponible vía API, con precios publicados en el sitio oficial de OpenAI. Eso permite integrar esta tecnología en apps propias, juegos o herramientas de diseño.En paralelo, OpenAI también avanza en integraciones con otras plataformas, desde servicios creativos hasta música y productividad. Todo apunta a que ChatGPT quiere ser el lugar donde empiezan y terminan muchas tareas digitales.OpenAI lanzó ChatGPT Images con GPT Image 1.5 para competir de frente con Nano Banana de Google. Es más rápido, más estable y más fácil de usar. La calidad visual aún se discute, pero la carrera está más apretada que nunca. Cuéntanos qué editor te gusta más y sigue Flash Diario en Spotify.ChatGPT lanza un nuevo generador de imágenes más rápido para competir con Nano Banana y cambiar cómo editamos fotos con IA.

    LG se suma a la guerra RGB

    Play Episode Listen Later Dec 17, 2025 6:56 Transcription Available


    LG Micro RGB evo debuta en CES 2026 con nueva tecnología de color y control de luzPor Félix Riaño @LocutorCoLG presenta su primer televisor Micro RGB evo para 2026, con color total certificado y control avanzado de luz.LG acaba de confirmar que va a entrar de lleno en la nueva generación de televisores RGB. En CES 2026, la marca va a presentar el LG Micro RGB evo, su televisor LCD más avanzado hasta ahora. Llega en tamaños de setenta y cinco, ochenta y seis y cien pulgadas, con una promesa clara: colores más precisos, más puros y mejor control de la luz. Este anuncio pone a LG en la misma carrera en la que ya están Samsung, Hisense, TCL y Sony. Pero aquí hay una diferencia clave: LG dice que va a llevar la precisión aprendida en trece años de OLED a un televisor LCD. ¿Hasta dónde puede llegar esta mezcla de tecnologías?La clave está en cómo se ilumina la imagen, no en el tipo de panelEl LG Micro RGB evo usa una retroiluminación formada por pequeños grupos de luces rojas, verdes y azules. Esos grupos iluminan varios píxeles a la vez y permiten un control del color mucho más fino que el de los televisores LCD tradicionales. LG explica que este sistema alcanza el cien por ciento de los espacios de color BT punto veinte veinte, DCI-P3 y Adobe RGB, algo certificado por Intertek.Para gestionar esa precisión, el televisor incorpora el procesador Alpha once generación tres, un chip que se encarga del control de la luz, el tratamiento del color y el escalado de imagen con ayuda de inteligencia artificial.El desafío de esta tecnología está en el equilibrio. Aunque el televisor cuenta con más de mil zonas de atenuación, hay modelos Mini LED que ofrecen muchas más. Eso puede marcar diferencias en escenas con contrastes extremos. Además, este tipo de panel sigue necesitando filtros de color, algo que no ocurre en OLED ni en el microLED real.El objetivo de LG es cerrar la brecha entre brillo, precisión de color y tamaño de pantalla, sin llegar a los costos extremos del microLED, que hoy sigue reservado para presupuestos muy altos.LG confía en que el control avanzado de la luz y el procesamiento heredado de su experiencia en OLED compensen esas limitaciones. El Micro RGB evo se apoya en sistemas de atenuación más precisos y en algoritmos que ajustan brillo y color en tiempo real.El televisor también integra la versión más reciente de webOS, con perfiles personalizados, ajustes automáticos de imagen y sonido, y herramientas de asistencia con inteligencia artificial. LG va a mostrar el modelo en CES 2026, en Las Vegas, entre el seis y el nueve de enero, donde se conocerán datos finales como brillo máximo, consumo y precio.El movimiento de LG confirma una tendencia clara para 2026. Varias marcas ya han presentado o anunciado televisores RGB. Hisense mostró uno de ciento dieciséis pulgadas. Samsung lanzó un modelo de ciento quince pulgadas con un precio cercano a los treinta mil dólares. TCL ya comercializa opciones en China y Sony prepara su tecnología True RGB.RGB y microLED no son lo mismo. En RGB, los LEDs iluminan grupos de píxeles; en microLED, cada píxel emite su propia luz. Esa diferencia técnica explica por qué el microLED sigue siendo tan costoso.Para creadores de contenido, la cobertura total de BT punto veinte veinte resulta especialmente atractiva. Para el público general, el mayor impacto se va a notar en escenas HDR con colores intensos y altos niveles de brillo.LG entra en la carrera del RGB con un televisor que busca combinar brillo, color y control avanzado de luz. El Micro RGB evo se va a mostrar en CES 2026 y ahí vamos a saber si cumple todo lo que promete. Cuéntame qué opinas y sigue Flash Diario en Spotify.LG presenta su primer televisor Micro RGB evo para 2026 con color certificado y control avanzado de la retroiluminación.

    Así planea Apple que uses gafas inteligentes todo el día

    Play Episode Listen Later Dec 16, 2025 8:29 Transcription Available


    Apple apuesta por eficiencia: va a usar tecnología del Apple Watch para mejorar batería y peso en sus futuras gafas inteligentes  Por Félix Riaño @LocutorCo  Apple lleva años buscando la fórmula correcta para unas gafas inteligentes que puedas usar todo el día. El gran obstáculo ha sido siempre el mismo: la batería. Las Apple Vision Pro muestran músculo tecnológico, pero su autonomía se queda corta y su peso limita el uso prolongado. Ahora, varios reportes coinciden en una idea clara y muy lógica: Apple va a recurrir a la tecnología que ya domina en el Apple Watch para resolver ese problema. Chips pensados para consumir poca energía, mantener buen rendimiento y reducir peso. La pregunta es directa y vale la pena hacerla desde ya: ¿estamos más cerca de unas gafas inteligentes realmente usables en la vida diaria?  La solución existe desde hace años y ya vive en tu muñeca  Las gafas inteligentes juegan con reglas distintas a las de un visor de realidad mixta. No están pensadas para sesiones cortas en interiores, sino para acompañarte durante horas mientras caminas, hablas, escuchas y te mueves por la ciudad. Eso cambia por completo las prioridades de diseño. Aquí, la potencia bruta pasa a segundo plano y la eficiencia energética se vuelve central.Según los reportes más recientes, Apple va a evitar los procesadores del iPhone y va a apostar por los chips tipo S que usa el Apple Watch. Estos procesadores están diseñados para funcionar con baterías pequeñas, generar poco calor y mantener un consumo estable durante muchas horas. Para unas gafas ligeras, esa combinación resulta mucho más adecuada que un chip pensado para un teléfono.  El problema no es solo cuánto dura la batería, sino dónde se coloca el peso. En un dispositivo que se lleva en la cabeza, cada gramo cuenta. Una batería grande mejora la autonomía, pero hace las gafas incómodas y poco prácticas. Por eso, la mayoría de modelos actuales en el mercado apenas alcanzan unas pocas horas de uso continuo.A esto se suma otro reto: la experiencia de uso. Muchas gafas inteligentes dependen de botones poco intuitivos, gestos difíciles de recordar o combinaciones de activación que generan confusión. En situaciones cotidianas, como caminar o conducir, eso puede convertirse en un riesgo.Apple quiere evitar ese escenario desde el inicio. Por eso, el primer modelo de sus gafas no va a incluir pantalla integrada y va a depender de la conexión con el iPhone para tareas más exigentes, manteniendo el hardware de las gafas lo más simple y ligero posible.  Los rumores apuntan a que Apple va a presentar sus primeras gafas inteligentes en 2026, con una llegada comercial más amplia en 2027. Este primer modelo funcionará como un accesorio del iPhone, de forma similar al Apple Watch. Las gafas se encargarán de captar información del entorno mediante cámaras, micrófonos y sensores, mientras que el iPhone procesará las tareas más complejas.El chip elegido sería un System in Package del Apple Watch, como el S10. Este procesador ofrece la potencia necesaria para manejar comandos de voz, reconocimiento visual básico y reproducción de audio, manteniendo un consumo energético muy bajo. Para entender la magnitud de esto, basta mirar al Apple Watch Ultra, que puede superar el día completo de uso con este tipo de arquitectura.Apple parece estar apostando por resolver primero la comodidad y la autonomía. Las funciones más avanzadas, como pantallas integradas o realidad aumentada completa, quedarían reservadas para generaciones posteriores.  Este movimiento de Apple llega en un momento clave para el sector. Meta ya ha logrado vender millones de gafas inteligentes gracias a su alianza con Ray-Ban, apostando por un diseño discreto y funciones básicas bien integradas. Google, por su parte, prepara su regreso con Android XR junto a Samsung y marcas de moda, mientras otras empresas exploran distintos enfoques, desde gafas con pantallas flotantes hasta modelos centrados en audio y traducción en tiempo real.Los analistas coinciden en que las gafas inteligentes podrían convertirse en una pieza más del ecosistema personal, junto al teléfono, los audífonos y el reloj. Casos de uso como asistencia a personas con discapacidad visual, navegación sin mirar el móvil, traducción automática o lectura discreta de mensajes ya muestran un valor claro.La gran incógnita sigue siendo el equilibrio entre utilidad, precio y aceptación social. Apple confía en que una entrada gradual, priorizando comodidad y batería, le permita evitar errores del pasado y llegar con una propuesta madura.  Apple va a usar la experiencia del Apple Watch para resolver el mayor problema de las gafas inteligentes: la batería. Menos peso, más horas de uso y una integración clara con el iPhone. Ahora dime tú: ¿usarías unas gafas inteligentes sin pantalla? Escucha más historias como esta en Flash Diario en Spotify.Apple va a usar chips del Apple Watch para lograr gafas inteligentes ligeras, con más batería y pensadas para uso diario.

    Google Maps ya sabe dónde aparcaste

    Play Episode Listen Later Dec 15, 2025 7:39 Transcription Available


    Google Maps ahora guarda automáticamente dónde aparcas en iPhone y elimina el pin cuando vuelves a conducirPor Félix Riaño @LocutorCo¿Te ha pasado que sales de un centro comercial, miras alrededor y no recuerdas dónde dejaste el coche? Google Maps acaba de activar una función que busca resolver justo ese momento de confusión. En iPhone, la app ahora detecta automáticamente cuándo terminas un trayecto en coche y guarda el lugar exacto donde aparcaste, sin que tengas que tocar nada. La función funciona de forma silenciosa, se borra sola cuando vuelves a conducir y está pensada para integrarse con CarPlay, Bluetooth o USB. Es un cambio pequeño en apariencia, pero muy práctico en el día a día. ¿Por qué ha tardado tanto en llegar y por qué solo está disponible en iOS?Funciona sola… pero deja fuera a millones de usuarios Android.Vamos a explicar qué está pasando. Google Maps en iOS empezó a activar hace unas semanas una función que reconoce cuándo llegas en coche a un lugar y cuándo apagas el motor. En ese momento, la app guarda automáticamente la ubicación del vehículo y coloca un pin en el mapa. Ese pin permanece visible durante cuarenta y ocho horas. Si antes de ese tiempo vuelves a conducir, el pin desaparece sin que hagas nada. Todo ocurre de forma automática.Para que funcione, el iPhone debe estar conectado al coche por CarPlay, Bluetooth o cable USB. No hace falta usar el botón manual de “guardar aparcamiento” que Google Maps ya tenía desde hace años. Ahora el sistema actúa por contexto, entendiendo el inicio y el final del trayecto. Es una función pensada para la vida real, para despistes cotidianos y para lugares grandes como parkings, hospitales o aeropuertos.Aquí aparece la tensión. Esta función solo está activa en Google Maps para iOS. En Android, el sistema sigue siendo manual. El usuario debe guardar el lugar y borrar el pin por su cuenta. Esto ha generado muchas preguntas, sobre todo porque Android es la plataforma principal de Google.Además, aunque el sistema guarda la ubicación horizontal del coche, no indica el piso o nivel en un parking de varias plantas. Eso significa que en parkings grandes todavía toca fijarse en columnas, colores o señales. Algunos usuarios también se preguntan qué datos usa Google para detectar el aparcamiento y si esto afecta a la privacidad. Google explica que el pin se elimina automáticamente y que la ubicación no queda guardada de forma permanente. Aun así, la diferencia entre iOS y Android deja una sensación rara de funciones desiguales dentro del mismo ecosistema.Google ha ido afinando esta función poco a poco. Primero activó el guardado automático del aparcamiento. Luego añadió un detalle visual: si usas un icono personalizado de coche en Google Maps, ese mismo icono aparece marcando el lugar donde aparcaste, en vez del clásico símbolo con la letra P.Los iconos personalizados existen desde dos mil veinte, y este año Google añadió nuevos modelos y colores. Ahora ese detalle se convierte en parte del sistema de aparcamiento. No cambia la navegación, pero hace la experiencia más clara y más humana.En comparación, Apple Maps lleva años ofreciendo detección automática del aparcamiento en iPhone. Google llega más tarde, pero lo hace integrado con su propia app y con una lógica simple: entras al coche, conduces, aparcas, te bajas, y el mapa se encarga del resto. No hay menús, no hay recordatorios, no hay pasos extra.Este tipo de funciones forma parte de una tendencia más amplia: apps que entienden el contexto sin que el usuario tenga que pedirlo. Google Maps ya hace algo parecido al detectar si vas caminando, en bici o en transporte público. El aparcamiento automático encaja en esa misma idea.También hay una comparación interesante con AirTag y otros sistemas de rastreo. Aquí no hay accesorios extra ni hardware adicional. Todo depende del teléfono, del coche y del comportamiento de uso.Por ahora, Google no ha dicho cuándo llegará esta función automática a Android. En Android Auto existe un botón para guardar el aparcamiento, pero sigue siendo manual. Eso deja abierta una pregunta clara: ¿es una limitación técnica o una decisión de producto? Mientras tanto, en iPhone la función ya está activa por defecto en muchos dispositivos, sin anuncios grandes ni actualizaciones visibles. Simplemente aparece un día… y funciona.Google Maps ahora recuerda automáticamente dónde aparcas si usas iPhone y conectas el coche. El pin se borra solo al volver a conducir. Es práctico, discreto y muy fácil de usar. La gran duda es cuándo llegará a Android. Cuéntame si ya lo viste activo en tu móvil y sigue Flash Diario en Spotify para más historias así.Google Maps en iPhone ahora guarda solo dónde aparcas, borra el pin al conducir y deja a Android esperando.

    La sonda que explicaba el pasado de Marte ya no responde

    Play Episode Listen Later Dec 12, 2025 8:17 Transcription Available


    NASA perdió contacto con MAVEN, sonda clave para estudiar Marte y comunicar rovers. Buscan recuperarla para evitar impacto en futuras misionesPor Félix Riaño @LocutorCo  NASA confirmó que la sonda MAVEN dejó de comunicarse con la Tierra durante un paso orbital detrás de Marte. La señal nunca volvió, pese a que todo funcionaba bien antes del ocultamiento. MAVEN llevaba más de una década estudiando la atmósfera marciana y trabajando como enlace de comunicaciones para los rovers Curiosity y Perseverance. Ahora los equipos en la Tierra buscan recuperar el contacto y entender lo que pasó, porque la misión es vital para la ciencia y para las operaciones activas en el planeta rojo. ¿Qué implica este silencio inesperado para el presente y el futuro de Marte?  MAVEN es una sonda que llevaba once años en órbita marciana. Llegó en 2014 y desde entonces ayudó a entender cómo Marte perdió su atmósfera, cómo interactúa con el viento solar y cómo esos procesos transformaron al planeta en un mundo frío y seco. También era parte del sistema que transporta datos desde la superficie marciana hasta la Tierra, un rol que permitía que fotos, mediciones y avances científicos llegaran a nuestros laboratorios. El 6 de diciembre, MAVEN cruzó detrás de Marte en una maniobra rutinaria. Antes de perderse de vista, sus datos mostraban un funcionamiento estable, sin señales de anomalías. Pero al salir del lado opuesto, el silencio fue total. NASA no recibió ni un pulso de telemetría. Ese hecho genera inquietud, porque afecta observaciones científicas y comunicaciones. Además, recuerda la fragilidad de una flota envejecida que mantiene activa la exploración marciana.  El silencio de MAVEN llega en un momento en el que la red de orbitadores de NASA ya está bajo presión. Mars Odyssey lleva más de veinte años y se espera que agote su combustible pronto. El Mars Reconnaissance Orbiter también supera la década y media de operación, con instrumentos que han dado señales de desgaste. La Agencia Espacial Europea aporta dos naves, Mars Express y el Trace Gas Orbiter, pero también están cumpliendo ciclos de vida extendidos. Cada una cubre turnos de comunicación para los rovers, y si una falla, la carga aumenta en las demás. MAVEN aportaba una ventaja especial: su órbita alta permitía relays más largos, lo que resolvía grandes cantidades de datos en menos tiempo. Perder ese enlace significa una reducción inmediata en la capacidad de transmitir ciencia desde la superficie marciana. También complica la logística de futuras misiones como el programa para traer a la Tierra las muestras recogidas por Perseverance. Y para completar el panorama, NASA aún no ha logrado definir ni lanzar un nuevo orbitador de comunicaciones, pese a que lleva dos décadas intentándolo.  Los equipos en la Tierra estudian telemetrías previas al apagón y la última posición calculada para modelar hipótesis. Buscan señales débiles en el Deep Space Network, una red de antenas gigantes ubicadas en España, Estados Unidos y Australia. Esta red rastrea sondas a miles de millones de kilómetros y es la única capaz de recuperar un rastro diminuto que permita reconstruir la orientación o estado energético de MAVEN. La prioridad es determinar si la nave entró en un modo de seguridad, si perdió actitud, si hubo un fallo en la antena o si ocurrió un problema más profundo en sus sistemas. Recordemos que en 2022 MAVEN pasó tres meses en modo seguro por fallas en sus giróscopos y fue necesario reescribir su software de orientación. Ese antecedente mantiene viva la esperanza de que el equipo logre reactivarla. NASA también estudia acelerar el desarrollo del futuro orbitador de telecomunicaciones, un proyecto que por fin recibió financiación de 700 millones de dólares. Blue Origin y Rocket Lab ya han presentado ideas para cumplir ese rol. Mientras tanto, las demás naves seguirán absorbiendo más carga de comunicaciones para que Curiosity y Perseverance no queden aislados.  MAVEN aportó descubrimientos esenciales. En 2023 entregó imágenes de Marte en luz ultravioleta, mostrando detalles de su atmósfera como si fueran señales químicas en movimiento. También reveló el mecanismo de “sputtering”, un proceso físico mediante el cual partículas energéticas arrancan átomos de la atmósfera, contribuyendo a la desaparición del aire del planeta. Identificó además una aurora de protones, un fenómeno que no aparece en la Tierra y que se produce cuando el viento solar interactúa con el hidrógeno atmosférico. Sus mediciones permitieron reconstruir el pasado de un Marte que pudo tener mares extensos. MAVEN es parte de las piezas que llevaron a los científicos a concluir que el Sol fue el responsable de la perdida atmosférica que transformó un planeta húmedo en uno seco. También fue un actor clave para elegir rutas seguras y zonas de aterrizaje para futuras misiones robóticas y tripuladas. Su rol de puente entre superficie y Tierra se volvió más importante con Perseverance, que está almacenando tubos con rocas que algún día viajarán a la Tierra. El silencio de MAVEN no significa el fin inmediato de esta cadena, pero sí obliga a reorganizar todo el sistema.  MAVEN dejó de comunicarse después de una década aportando ciencia y comunicaciones vitales desde Marte. NASA trabaja para recuperar su señal y mantener operativa la red que sostiene a Curiosity, Perseverance y futuras misiones. Te invito a seguir pensando en cómo cuidamos estas naves que mantienen viva nuestra ventana al planeta rojo. Sigue el pódcast Flash Diario.  BibliografíaScienceAlertScientific AmericanNASA ScienceABC NewsPBS NewsHourArs TechnicaThe Guardian  Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Claim FLASH DIARIO de El Siglo 21 es Hoy

    In order to claim this podcast we'll send an email to with a verification link. Simply click the link and you will be able to edit tags, request a refresh, and other features to take control of your podcast page!

    Claim Cancel