POPULARITY
Categories
HONOR 400 ya está en venta. IA creativa, batería potente, pero con puntos débiles. ¿Es el mejor para ti?Por Félix Riaño @LocutorCo HONOR 400 ya se vende en Colombia, México y España. Tiene cámara de 200 MP, edición con inteligencia artificial y funciones que parecen de gama alta, pero no todo es tan sencillo. Si estás buscando un nuevo celular en Colombia, México o España, seguro has visto el nombre HONOR 400. El lanzamiento ya es oficial en esos países, con precios de gama media y un montón de funciones llamativas: desde fotos que se convierten en video, hasta herramientas que detectan si una videollamada es falsa. Pero antes de que tomes una decisión, vale la pena repasar lo que este teléfono puede —y no puede— hacer. Porque hay datos que suenan muy bien en papel, pero no siempre se traducen en una buena experiencia diaria. La serie HONOR 400 llegó con tres versiones: el Lite, el estándar y el Pro. Todos comparten algo en común: una cámara principal de 200 megapíxeles y más de 40 funciones de inteligencia artificial. El modelo Pro es el más completo, con zoom óptico real y carga más rápida, pero también es el más caro. El estándar, que ya se consigue en Colombia por $2.799.900 pesos, en México por $12.999 y en España desde €449, ofrece lo esencial: pantalla brillante, batería de larga duración, edición automática de fotos y traducción con IA. ¿Lo suficiente? Depende de tus prioridades.HONOR dice que su IA puede ayudarte a borrar personas del fondo de una foto, generar un video a partir de una imagen, detectar sonrisas y hasta traducir llamadas en tiempo real. Y sí, todo eso está ahí... pero no siempre funciona perfecto. Algunas funciones requieren conexión a internet, otras solo están disponibles en el modelo Pro, y varias aún están en fase de mejora.Si lo tuyo es tomar fotos en la playa, grabar a tu perro saltando o hacer reels para redes, este teléfono tiene herramientas interesantes. Pero si lo que necesitas es fluidez total, sin pausas ni lentitud, sobre todo cuando usas varias apps a la vez, el modelo base puede quedarse corto. El principal freno del HONOR 400 es su procesador. En pruebas de uso diario, algunas apps como Google Maps o TikTok tardan más de lo esperado en cargar. Incluso abrir la galería de fotos puede sentirse lento. Y eso no se resuelve con inteligencia artificial. Si estás pensando en editar video, usar apps de productividad o jugar con gráficos pesados, el modelo estándar se queda un paso atrás.También hay que hablar del zoom. Aunque en las promociones se menciona un “super zoom” de hasta 30x, en realidad el modelo base no tiene lente telefoto. El acercamiento se hace digitalmente, y eso significa que a veces la foto pierde nitidez. El Pro sí tiene lente óptico con zoom real, pero cuesta más. Y si solo te interesa una buena cámara frontal para videollamadas o selfies, hay otros modelos más económicos que cumplen igual o mejor. Entonces, ¿para quién es este teléfono? Si buscas un equipo con buen diseño, batería duradera, pantalla luminosa y muchas herramientas creativas para fotos y videos, el HONOR 400 puede ser una buena opción. Sobre todo si no te importa que algunas funciones tarden en cargar o que el zoom no sea óptico. Si estás empezando en creación de contenido o quieres un celular con trucos de IA que te ayuden a editar sin esfuerzo, este modelo te da ese primer paso.Ahora, si lo que quieres es velocidad para todo, telefoto real o grabación en HDR, tal vez convenga mirar otros equipos de la competencia: el Pixel 9a, el Galaxy A56 o incluso el Vivo V50, todos en un rango similar de precios. Y si puedes esperar un poco más, se viene el HONOR 400 Pro+ que promete aún más sensores, mejor rendimiento y mejoras en video. Eso sí, más caro.Así que antes de comprar, piensa en lo que realmente usas a diario: ¿sacas muchas fotos? ¿Editas? ¿Usas redes sociales o jugás? Según eso, el HONOR 400 puede ser una herramienta creativa… o una distracción más con IA que no siempre cumple. Una de las funciones más llamativas es “Imagen a video IA”, que convierte fotos en videos cortos animados. Es útil para redes sociales, pero solo se puede usar 10 veces al día durante los primeros dos meses, y después requerirá una suscripción. También tiene “Collage de fotos en movimiento”, que une varias imágenes en un solo clip animado.En edición, destaca el “AI Cutout” para recortar objetos y cambiar fondos, “AI Outpainting” para ampliar una foto más allá de sus bordes, y “AI Eraser” para borrar personas. Todas útiles, aunque no siempre precisas. Y en seguridad, ofrece “Detección de deepfakes” durante videollamadas.La batería es una de sus mejores fortalezas. En uso normal, puede durar dos días sin problemas. La carga llega al 40% en 15 minutos, aunque no incluye cargador en la caja. La pantalla es OLED con brillo de hasta 5.000 nits, lo que la hace muy visible en exteriores. Pero si estás pensando en usarlo para leer mucho o escribir, el teclado y la escritura por IA aún no son su punto más fuerte.Por último, si vienes de un Samsung o iPhone, la app "Device Clone" permite transferir todos tus datos fácilmente al nuevo HONOR. HONOR 400 ya está disponible en Colombia, México y España. Es ideal si quieres explorar nuevas formas de hacer fotos y videos con ayuda de la IA, pero no tanto si necesitas rapidez o grabación profesional. Evalúa bien tus necesidades antes de decidir. Y escucha más análisis útiles en Flash Diario en Spotify. Bibliografía Speed PH – HONOR 400 Pro 5G launchBack End News – HONOR en los VMA 2025PetaPixel – Análisis del HONOR 400TechRadar México – Lanzamiento en MéxicoInfobae Colombia – HONOR 400 en ColombiaXataka – Análisis completo del HONOR 4009to5Google – HONOR 400 ReviewPRNewswire – HONOR 400 global press releaseHONOR Colombia – Página oficialConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
Sony demanda a Tencent por Light of Motiram, juego que copia a Horizon Zero Dawn según la denuncia Por Félix Riaño @LocutorCo Sony acaba de presentar una demanda en una corte de California contra Tencent, una de las compañías tecnológicas más grandes del mundo, por supuestamente copiar su popular franquicia de videojuegos Horizon. El juego acusado, Light of Motiram, aún no ha sido lanzado, pero ya está generando controversia. Sony dice que ese título es una copia tan directa de Horizon Zero Dawn que hasta el personaje protagonista, el estilo visual y los animales robóticos del mundo postapocalíptico se parecen demasiado. La empresa japonesa está pidiendo que el juego no llegue al mercado y que Tencent entregue todo el material promocional para destruirlo. ¿Pero hasta qué punto se puede parecer un videojuego? En 2017, Sony lanzó Horizon Zero Dawn para la consola PlayStation 4. El juego fue un éxito. Tenía una protagonista muy particular llamada Aloy, una joven pelirroja que sobrevive en un mundo futuro dominado por máquinas gigantes con forma de animales. El universo del juego mezcla tecnología con tribus humanas que viven como en la prehistoria. Su historia, sus escenarios, su estética y hasta su música marcaron tanto al público que rápidamente se convirtió en una franquicia valiosa para Sony, con secuelas, merchandising y hasta planes para una serie de televisión.Ahora, Sony alega que Tencent —un gigante de la tecnología con sede en China y dueño de varias empresas de videojuegos— desarrolló en secreto un nuevo juego llamado Light of Motiram con una historia, estilo gráfico y personajes que se parecen demasiado a los de Horizon.Sony no está reaccionando por simple capricho. Según la demanda, en 2024 Tencent propuso colaborar oficialmente con Sony para hacer una versión móvil de Horizon, con una estética asiática y elementos como mascotas, juego multijugador y construcción de refugios. Sony rechazó la propuesta. Pero un tiempo después, Tencent presentó Light of Motiram, donde aparece una mujer protagonista con rasgos parecidos a Aloy, luchando en un entorno lleno de máquinas gigantes, desiertos, montañas nevadas y tecnología tribal.Además, en las imágenes promocionales del nuevo juego aparecen animales metálicos casi idénticos a los de Horizon, estructuras arquitectónicas con la misma paleta de colores, y hasta una interfaz parecida. Sony dice que esta copia no solo es visual, sino que afecta directamente su reputación y sus ingresos. También argumenta que el público puede confundirse y pensar que Light of Motiram es una secuela de Horizon, lo que podría dañar su marca.Sony ha llevado el caso a una corte federal en el norte de California. Pide que Tencent cancele el lanzamiento del juego, elimine todo el material promocional y pague hasta 150 mil dólares por cada parte de la franquicia de Horizon que se haya copiado. Además, acusa a Tencent de haber actuado con conocimiento previo y de forma deliberada, luego de haberle propuesto inicialmente colaborar de forma legal.Por su parte, Tencent aún no ha respondido oficialmente a las acusaciones. El juego Light of Motiram sigue listado en plataformas como Steam y Epic Games Store, aunque no tiene fecha oficial de lanzamiento.En la demanda también se citan comentarios de redes sociales y sitios especializados en videojuegos que opinan que la copia es evidente. Hay quienes han llamado a Motiram “Horizon Zero Originalidad” en tono sarcástico.El conflicto entre Sony y Tencent abre una puerta a una discusión más amplia sobre qué se considera plagio en los videojuegos. ¿Es posible que dos juegos tengan mundos postapocalípticos, tribus humanas y robots sin ser copias? ¿Hasta qué punto se permite la inspiración antes de considerarse infracción?Esta no es la primera vez que ocurre algo parecido. Juegos como Genshin Impact fueron criticados por parecerse a Zelda: Breath of the Wild, aunque nunca fueron demandados. Y muchas veces, las mecánicas como “crafteo” (crear objetos con materiales) o “gliders” (alas para planear por el aire) se repiten en muchos títulos porque se vuelven estándar.Pero cuando además del estilo de juego se repiten nombres, personajes, escenarios, colores, logos, tipografías y hasta los mismos ángulos de cámara en los tráilers, la discusión cambia. Por eso Sony quiere llevar el caso hasta el final y dejar un precedente para proteger su propiedad intelectual. Sony demandó a Tencent por copiar el universo y estilo de su franquicia Horizon en el juego Light of Motiram. ¿Es plagio o inspiración?Cuéntame qué opinas y sigue escuchando más historias como esta en el pódcast Flash Diario en Spotify:
Microsoft Edge lanza el modo Copilot con IA para ayudarte a navegar Por Félix Riaño @LocutorCo Edge ahora integra inteligencia artificial con el nuevo “Copilot Mode”, que ayuda a navegar, comparar precios, planear viajes y hasta leer recetas por ti.
Canal oficial da Igreja Presbiteriana do Brasil em Irajá. Igreja cristã, reformada e com o intuito de glorificar o nome de Jesus Cristo. Venha nos visitar e participar de uma reunião conosco. Estamos nas redes sociais com o @presbiterianadeiraja.Sermão: Rev. Carlos Alberto Monteiro - Culto matutino - 27/07/2025
Fin de Windows 10:
⚡Carga inalámbrica de 25 vatios⚡Qi2 25W ya es oficial: iPhones, Android y una advertencia importante Por Félix Riaño @LocutorCo El nuevo estándar Qi2 25W mejora la velocidad de carga inalámbrica en iPhone y Android. Pero Apple podría estar preparando un paso más allá.
Betelgeuse revela su estrella compañera gracias a Gemini North, un hallazgo que cambiará nuestra mirada estelar Por Félix Riaño @LocutorcoBetelgeuse, el punto rojizo que marca el hombro de Orión, está a unos 650 años luz —aproximadamente 6,1 cuatrillones de kilómetros— de la Tierra. Hoy vamos a contar que no brilla sola: el telescopio Gemini North en Hawái captó, mediante imágenes rápidas de «tavelas» o speckle imaging, una diminuta estrella azul-blanca orbitando dentro de la atmósfera hinchada de la supergigante roja. La compañera es seis veces menos luminosa, posee una masa de 1,5 Soles y recorre una órbita de apenas 4 Unidades Astronómicas, unos 600 millones de kilómetros, distancia tan corta que cabría holgadamente dentro de la órbita de Júpiter. Este descubrimiento resuelve un enigma de siglos sobre las variaciones de brillo de Betelgeuse y plantea una nueva duda fascinante: ¿qué sucederá con esa pequeña estrella cuando el gigante rojo explote en una futura supernova visible a plena vista? Pero el pequeño vecino podría desaparecer mucho antes del estallido La aventura empezó con un misterio de luz. Desde la Antigua Grecia, astrónomos aficionados notaron que Betelgeuse late: se oscurece y se ilumina en ciclos de 400 días y, aparte, en ciclos de casi seis años. Esa segunda cadencia despertó la sospecha de que algo orbitaba al gigante. Intentos anteriores con el Hubble y el observatorio de rayos X Chandra no dieron pistas. Entonces, Steve Howell y su equipo de la NASA decidieron usar Alopeke, un instrumento que toma miles de fotos de un cuarto de milisegundo y las combina para “congelar” las turbulencias del aire. Así apareció un puntito azul, tan tenue que muchos no lo habrían creído real de no ser por la nítida separación angular de apenas 0,05 segundos de arco, similar a distinguir dos fuegos artificiales separados por la anchura de una moneda vista a 40 kilómetros. Ahora surge un problema apasionante. La compañera, batizada de forma provisional «Siwarha», viaja inmersa en las capas externas de Betelgeuse, hechas de gas caliente y polvo. Esa proximidad genera fricción estelar: el gas de la supergigante frena la órbita del astro menor, igual que el aire frena a un ciclista. Los cálculos indican que la órbita de Siwarha va a decaer y la estrella podría caer en espiral hasta quedar engullida en menos de diez mil años, un suspiro cósmico. Además, cada vuelta de esta bailarina estelar revuelve las capas del gigante, expulsando más polvo al espacio y dándonos falsas alarmas de supernova, como el Gran Atenuamiento de 2019 a 2020. Observar ese proceso es complicado porque el resplandor anaranjado de Betelgeuse satura detectores y tapa el brillo azulado de su vecina; solo técnicas de alta resolución permiten separar ambas luces sin deformar la imagen. ¿Qué vamos a aprender después? Primero, los astrónomos planean vigilar la pareja hasta noviembre de 2027, cuando la órbita la aleje un poco más y facilite mediciones precisas de masa, temperatura y composición. Con esos datos vamos a refinar modelos de evolución estelar: Betelgeuse, con un radio de unos 487 millones de kilómetros —casi la distancia entre el Sol y el cinturón de asteroides— se encuentra en fase final de vida y terminará reventando en una supernova que iluminará nuestros cielos tanto como la Luna durante varios meses. Siwarha servirá como “termómetro” interno, midiendo la pérdida de masa del gigante y avisando de cambios bruscos. Además, el hallazgo abre la puerta a buscar compañeros en otras supergigantes, lo que podría explicar irregularidades luminosas en estrellas cercanas como Antares. Finalmente, cuando Betelgeuse explote, parte de su material va a caer sobre Siwarha, quizás formando un disco de gas brillante que, por unos años, adornará la constelación de Orión como un brazalete cósmico fácilmente visible con pequeños telescopios. Betelgeuse es joven para su tamaño: apenas 10 millones de años frente a los 4 600 millones del Sol. Ese ritmo acelerado de vida se debe a su masa: unas 20 veces la solar. Cuando una estrella tan grande agota el hidrógeno central, se expande, enfría la superficie y adopta el tono rojizo característico. En 2019, su brillantez cayó un 40 %, dando pábulo a titulares sobre una “supernova inminente”. Más tarde, estudios con el Very Large Telescope mostraron un penacho de polvo expulsado desde su hemisferio sur, mezcla de cenizas estelares y silicatos. Casos parecidos ocurrieron con la supergigante VY Canis Majoris, lo que sugiere que estos eventos de “tos estelar” son habituales en gigantes en decadencia. La confirmación de Siwarha aclara la oscilación de seis años: cada vez que la compañera se adentra en las zonas más densas de la atmósfera, arrastra gas y lo expulsa como si agitara un velo de nubes. Gracias a este sistema doble, la próxima generación de telescopios —James Webb, ELT y el propio Gemini tras su actualización— va a probar modelos de hidrodinámica estelar en tiempo real, convirtiendo a Betelgeuse en el laboratorio natural más cercano para estudiar las últimas fases de las estrellas masivas. Betelgeuse ya no es la solitaria del vecindario cósmico: su compañera Siwarha confirma teorías centenarias y nos brinda una oportunidad única para observar cómo un gigante rojo evoluciona con un aliado tan cercano. Cuéntame qué te parece este baile estelar y comparte el episodio. Sigue Flash Diario en Spotify para más historias del cielo. Betelgeuse revela estrella compañera; órbita diminuta, posible absorción en 10 000 años. ¡Atentos a la supernova más cercana!BibliografíaCosmos MagazineScience NewsSpace.comPhys.orgEarthSkyConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
Mercado Flash, quarta-feira, 23 de julho. Nesta edição olhamos com atenção para os milhões que o Benfica vai investir na chegada de João Félix e Franjo Ivanovic. O Sporting tem um novo nome referenciado para chegar para a baliza leonina e o FC Porto vai mesmo fechar o acordo com a Juventus para vender João Mário e comprar Alberto Costa. No mercado internacional, o Atlético Madrid anunciou a chegada de um novo reforço.
Mercado Flash, quarta-feira, 23 de julho. Nesta edição olhamos com atenção para os milhões que o Benfica vai investir na chegada de João Félix e Franjo Ivanovic. O Sporting tem um novo nome referenciado para chegar para a baliza leonina e o FC Porto vai mesmo fechar o acordo com a Juventus para vender João Mário e comprar Alberto Costa. No mercado internacional, o Atlético Madrid anunciou a chegada de um novo reforço.
Unicode revela ocho nuevos emoji que llegarán a teléfonos y chats mediante la próxima actualización global. Por Félix Riaño @LocutorCo Celebramos el Día Mundial del Emoji con un adelanto: trombón, cofre del tesoro, cara distorsionada, criatura peluda, nube de pelea, corazón de manzana, orca y bailarinas llegan pronto a tu teclado. Las caritas amarillas han tenido un viaje alucinante, desde los pagers noventeros hasta los teléfonos plegables de hoy. El diecisiete de julio, Día Mundial del Emoji, el Consorcio Unicode presentó las ocho figuras que van a refrescar nuestros mensajes en 2026: un trombón que toca sin sonido, un cofre del tesoro digno de “One Piece”, una cara distorsionada ideal para mostrar bochorno, una criatura peluda que evoca a Bigfoot, una nube de pelea sacada de las viñetas, el corazón mordido de una manzana, una orca saltarina y un par de bailarinas en puntas. ¿Sabías que cualquier fan puede proponer nuevos símbolos? Te voy a contar cómo se decide quién se cuela en el teclado y quién queda en borrador, ¿te quedas para descubrirlo? Nuevo emoji, nueva historia, todavía falta el paso final clave Imagina abrir tu chat favorito en marzo de dos mil veintiséis y encontrar el pequeño trombón listo para musicalizar tu chiste malo. Detrás de ese icono hay un proceso de once pasos que empieza mucho antes de que pulses enviar. Primero surge la idea: puede nacer en una conversación, en un tuit o en una lista de deseos de fanáticos. Luego alguien redacta una propuesta oficial, documenta la relevancia cultural, muestra bocetos y hasta explica escalas de piel si corresponde. Los voluntarios del subcomité Emoji del Consorcio Unicode revisan criterios de compatibilidad, uso esperado y singularidad. Si todo encaja, el símbolo se somete a votación en la reunión trimestral. Después vienen meses de pruebas técnicas para garantizar que el código funcione igual en Android, iOS, Windows y más. Al final, el estándar se publica y los artistas de cada empresa redibujan el pictograma con su propio estilo. En teoría, el sistema luce transparente, pero la práctica presenta obstáculos curiosos. Para empezar, las propuestas deben demostrar un nivel de uso potencial comparable al de símbolos existentes, lo que deja fuera referencias muy locales. El comité también vigila que la lista no crezca sin control porque cada carácter adicional ocupa memoria en dispositivos antiguos. A eso se suma la accesibilidad: cada emoji necesita nombre, etiqueta de voz y descripción compatible con lectores de pantalla, garantizando inclusión real. Además, hay batallas de propiedad intelectual; llamar «Bigfoot» a la criatura peluda implicaría marcas registradas, por eso se escoge un título neutral. Las discusiones se encienden cuando la imagen roza estereotipos culturales o temas políticos. ¿Cuántas banderas regionales son suficientes? A veces, las compañías agregan stickers generados por IA para saltarse la espera, pero eso fragmenta la experiencia porque tu chiste puede aparecer como cuadro vacío en el móvil de tu abuela. El camino hacia el teclado no termina con la aprobación de Unicode. Una vez publicado el estándar 17 el nueve de septiembre de dos mil veinticinco, cada empresa ajusta sus calendarios. Apple suele tardar entre seis y ocho meses; los rumores señalan que el paquete aparecerá en iOS 26.4, alrededor de la primavera boreal de dos mil veintiséis. Google integrará los gráficos en una actualización progresiva de Android, y las redes sociales como WhatsApp o X adoptarán sus propios diseños casi al mismo tiempo. Durante ese lapso, Emojipedia actualizará sus páginas y las favoritas empezarán a viralizarse. Ya hay apuestas: la cara distorsionada pinta para convertirse en el nuevo meme de frustración, mientras los músicos confían en que el trombón protagonizará la fanfarria de cada ascenso personal. Los gamers planean usar la nube de pelea para narrar partidas de Smash, y la orca promete ser la reina de los hilos sobre conservación marina. Cuando por fin pulses esa criatura peluda, piensa en los miles de voluntarios que la hicieron posible. El Consorcio Unicode nació en 1991 y hoy reúne a gigantes como Apple, Google, Microsoft, Meta y Adobe, además de universidades y gobiernos. Su misión principal es asegurar que cualquier texto, sea latín, árabe o emoji, se vea igual en todas partes. Cada adopción de carácter cuesta dinero, por eso existe el programa Adopt-a-Character: con donaciones desde 100 dólares o 90 euros recibes un certificado digital para presumir tu símbolo favorito. Entre los padrinos figuran museos, bibliotecas y hasta grupos de K-pop que patrocinan el corazón morado. La historia de los emoji empezó con Shigetaka Kurita en NTT DoCoMo, y el catálogo pasó de 176 figuras a casi 4 000. Algunos pictogramas han cambiado con la cultura: el revólver se transformó en pistola de agua y el disquete pronto sumará un guiño nostálgico. Las encuestas muestran que el corazón rojo, la carita con lágrimas de risa y el fuego dominan el podio, aunque el ranking rota cada mes según temporadas y memes virales. En resumen, ocho nuevos emoji están en la fila de salida: trombón, cofre, cara distorsionada, criatura peluda, nube de pelea, corazón de manzana, orca y bailarinas. Para verlos vamos a esperar hasta dos mil veintiséis, pero desde ya podemos proponer, adoptar y soñar con el próximo icono que cuente historias universales. Escucha y comenta más en Flash Diario, Unicode adelanta ocho emoji: Bigfoot, orca, trombón, cofre, nube de pelea, cara distorsionada, bailarinas y corazón de manzana, disponibles 2026. BibliografíaUnicode Consortium BlogMacStoriesMacRumorsLifehacker9to5MacEngadgetThe VergeCNETConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
Seja bem-vindo ao meu canal.➤ Instagram: @heliopeixotofilho➤ Telegram: https://t.me/heliopeixoto_oficial➤ Devocional: https://especial.heliopeixoto.com/cadastro-devocional➤ Facebook: http://www.facebook.com/HelioPeixotoFilho
Huawei Pura 80 Ultra sorprende con cámara dual periscópica, zoom óptico conmutable y diseño premium resistente Por Félix Riaño @LocutorCo El Huawei Pura 80 Ultra acaba de iniciar su gira global desde Dubái y busca volver a los bolsillos de fotógrafos aficionados y profesionales. Su secreto está en un módulo periscópico con dos lentes y un prisma que se desplaza con motor microscópico para alternar entre retratos a 3,7 aumentos y tomas lejanas a 10 aumentos sin perder nitidez. El sensor de cincuenta megapíxeles y 1,28 pulgadas recoge más luz que muchas cámaras compactas, y el procesado XMAGE afina color y contraste. Además, la pantalla OLED de 6,8 pulgadas alcanza 3 000 nits y la batería admite carga rápida de 100 vatios. El reto: convencer a usuarios que dependen de Google para que prueben un móvil sin esos servicios. Falta Google, pero el zoom físico cautiva a curiosos globales El diseño del Pura 80 Ultra despierta opiniones encontradas desde la primera mirada. El círculo dorado que rodea las cámaras parece la carátula de un reloj suizo y muestra la precisión mecánica que Huawei va a poner en cada foto. Dentro del módulo vive un motor tan pequeño como un grano de arena que mueve un prisma y decide qué lente iluminar el sensor. A 3,7 aumentos los rostros lucen fondos suavemente comprimidos, como en el cine. Con 10 aumentos el teléfono se vuelve un mini telescopio capaz de leer letreros lejanos. Todo ocurre sin recortes digitales ni trucos de software. La experiencia se siente tangible, incluso se oye un leve clic al cambiar de foco. Pero todo avance trae preguntas. El Pura 80 Ultra llega sin compatibilidad directa con Google Maps, YouTube ni Gmail debido al veto comercial de Estados Unidos. Para muchas personas esas apps son tan comunes como el desayuno, y AppGallery aún no ofrece sustitutos idénticos. Además, la versión internacional renuncia al 5 G y a la conexión satelital que sí tiene el modelo chino; en zonas rurales la señal puede flaquear justo cuando quieras compartir tus fotos. El precio también asusta: parte de 1 400 dólares, unos 1 280 euros. Por último, aunque el procesador Kirin 9020 rinde bien cada día, los juegos más exigentes corren con más fotogramas en chips rivales de tres nanómetros. Frente a esas barreras, Huawei confía en dos cartas clave. La primera es la experiencia diaria: EMUI 15 fluye sin tropiezos y la batería de 5 170 mAh llega al final de la jornada gracias a la pantalla LTPO que baja hasta 1 hercio. Cuando hace falta energía, la carga de 100 vatios llena 50 % en diez minutos, y la carga inalámbrica de 80 vatios evita cables. La segunda carta es la calidad fotográfica demostrable. En pruebas especializadas el Pura 80 Ultra leyó texto a treinta metros con nitidez, superando al Vivo X200 Ultra y al iPhone 16 Pro Max en zoom extremo. El sensor principal de una pulgada con apertura variable logra escenas nocturnas con menos ruido que sus rivales. Quien priorice la imagen va a encontrar aquí un compañero creativo, siempre que acepte vivir sin Google. Huawei lleva más de diez años marcando tendencias en fotografía móvil: introdujo el modo noche avanzado y popularizó el zoom periscópico con el P30 Pro. Tras perder la alianza con Leica, invirtió en desarrollar su propia óptica y algoritmos bajo la marca XMAGE. En el Pura 80 Ultra ese trabajo se refleja en un rango dinámico de dieciséis pasos, cifra habitual en cámaras de cine. El teléfono también estrena cristal Kunlun de segunda generación, cuya dureza certificada duplica la resistencia a arañazos. Además, incluye un botón inteligente que hace de lector de huella y disparador rápido, ideal para creadores que necesitan capturar el momento. Todo esto se monta en un cuerpo de aluminio con certificación IP68/IP69 y un acabado que recuerda a la alta relojería, disponible en negro dorado y otros colores. El Pura 80 Ultra muestra que Huawei sigue firme en la cima de la fotografía móvil: zoom mecánico dual, sensor gigante y diseño de lujo. Si dependes de las apps de Google, quizá no sea tu elección. Si buscas la mejor cámara posible en un teléfono, este modelo va a convertirse en tu aliado. Escúchame en Flash Diario para más detalles mañana. Huawei Pura 80 Ultra ofrece zoom mecánico dual, sensor gigante, batería rápida; sacrificas Google, ganas fotos asombrosas, ¿te animas hoy?—
Ahora Claude AI puede crear y editar diseños en Canva desde chats de inteligencia artificial Por Félix Riaño @LocutorCo Claude, el asistente de inteligencia artificial de Anthropic, ahora se integra con Canva y otras plataformas como Google Drive, Slack y Notion. Esta conexión permite automatizar tareas sin necesidad de escribir código, gracias al protocolo MCP. ¿Diseñar sin abrir Canva? Ahora es posible con Claude AI. La integración entre Anthropic y Canva permite crear, editar y automatizar diseños desde un simple chat. Esta función está disponible para quienes tengan planes pagos en ambas plataformas. No se trata de una simple novedad estética: es un paso hacia la automatización creativa total. Claude también puede conectarse con Stripe para leer reportes de pagos, con Notion para generar hojas de ruta de proyectos y con Slack para revisar conversaciones. Pero, ¿esto va a beneficiar a todos los usuarios por igual, o solo a quienes pagan la suscripción premium? Diseñar con Claude suena mágico… pero no es gratis. Desde hoy, cualquier persona con un plan pago en Claude y en Canva va a poder crear diseños gráficos con instrucciones en lenguaje natural. No es necesario cambiar de pestaña, abrir plantillas ni saber usar herramientas de diseño. Basta con escribirle a Claude algo como: “Haz una historia de Instagram con el resumen de ventas de julio”, y el asistente va a usar Canva para armarlo. La conexión entre ambas plataformas funciona gracias al MCP, el Protocolo de Contexto de Modelo, una especie de ‘puerto universal' para que los asistentes de IA interactúen directamente con tus aplicaciones sin explicaciones técnicas. El objetivo es que Claude se comporte como un asistente real que entiende tus herramientas, archivos y objetivos sin que tengas que copiar y pegar nada. Esta integración entre Claude y Canva es potente, pero también plantea muchas preguntas. Para empezar, solo está disponible si tienes una cuenta paga en Claude, que cuesta 17 dólares al mes, y un plan de Canva Pro, que vale 15 dólares mensuales. Y claro, esto no es exclusivo: Claude también se conecta con Notion, Stripe, Google Drive, Slack, Prisma, Figma, Socket y más. ¿El resultado? Una especie de escritorio invisible, donde todo ocurre por instrucciones de voz o texto. Aunque puede parecer una maravilla de productividad, también significa que la IA puede acceder a tus archivos, proyectos y hasta a tus pagos, siempre que tú lo autorices. ¿Pero hasta dónde vamos a delegar el control de nuestras herramientas? Anthropic ha lanzado un directorio interactivo de conectores, accesible desde la app web o de escritorio de Claude. Allí, cualquier usuario va a poder explorar qué aplicaciones están disponibles para conectar, activar la integración con un clic, y empezar a trabajar con Claude como si fuera parte de su equipo. Por ejemplo, los usuarios pueden crear un diseño en Canva desde un brief escrito en el chat, generar publicaciones automáticas para redes sociales o convertir un reporte de Stripe en una infografía. Este paso convierte a Claude en el primer asistente de IA capaz de manejar tareas creativas directamente dentro de Canva, algo que ni ChatGPT ni Gemini han conseguido hasta ahora. El sistema funciona en navegadores y también en el escritorio, lo que abre puertas para automatizar acciones locales en tu computador. MCP, el Protocolo de Contexto de Modelo, es la clave detrás de todo esto. Anthropic lo presentó en noviembre de 2024 como una forma de estandarizar cómo los modelos de lenguaje acceden a otras aplicaciones. Es como el USB-C de la inteligencia artificial: una vez conectada la app, la IA puede acceder de forma segura a tus datos, pero solo a lo que tú autorizas. Esto resuelve uno de los grandes problemas de la IA: el contexto. Hasta ahora, pedirle algo a un asistente implicaba explicar todo desde cero. Ahora, Claude puede ver lo mismo que tú y actuar con base en eso. Y no se trata solo de Canva: otras empresas como Wiley y Panopto ya lo están usando para integrar tareas editoriales y de contenido. En lugar de reemplazar a las personas, la promesa es que Claude se convierta en un colaborador útil, pero con acceso limitado y controlado.— Claude ahora puede usar Canva y otras herramientas como si fueran extensiones de su chat. ¿Es el futuro de la productividad o un privilegio para suscriptores premium? Cuéntamelo tú. Y no olvides seguir el pódcast Flash Diario en Spotify. Claude ya diseña en Canva desde un chat. Pero solo si pagas los dos servicios. ¿Vale la pena?
En el día de hoy nos acompaña Dani Giménez, portero que ha podido vivir lo que se siente al pertenecer a clubes históricos y, sobre todo, a aficiones que podrían considerarse como algunas de las mejores que tenemos en España. Nos cuenta cómo fue escalando poco a poco hasta llegar al fútbol profesional, en el cual se asentó en equipos como Rayo Vallecano, Alcorcón, Betis y Deportivo de la Coruña. Un portero que todos los entrenadores querrían tener y un invitado con el cual hemos pasado un rato espectacular. Muchas gracias por querer compartir con nosotros tu historia Dani! Ha sido un auténtico placer. MARCAS DE TIEMPO: 0:00 Intro 2:15 Formación en el Celta 24:10 Cinco años en el Zamora 38:10 Rayo Vallecano, un club especial 46:10 ¿Qué entrenadores son una referencia? 55:50 Los problemas económicos del Rayo Vallecano 1:03:35 Vuelta a Primera División 1:10:20 Un año brutal en el Alcorcón 1:15:15 Cuatro años en el Betis 1:30:30 Deportivo de la Coruña, un club histórico 1:50:30 Su retirada en el Ud Logroñés 1:58:00 Entrenador, una gran ilusión 2:00:40 ¿Próximo invitado? Learn more about your ad choices. Visit megaphone.fm/adchoices
Cardiólogo británico y cirujano estadounidense reabren debate global sobre vacunas Covid, entre cifras científicas, decisiones judiciales y poder político:Aseem Malhotra y casos legales reavivan debate global sobre seguridad de vacunas Covid y libertad médica Por Félix Riaño @LocutorCo La controversia crece: un cardiólogo británico convertido en asesor de RFK Jr. y un cirujano absuelto en Utah reavivan preguntas sobre investigación clínica, transparencia y autonomía en salud pública. En Londres, el cardiólogo Aseem Malhotra pasó de defensor a crítico de las vacunas contra el Covid-19. Hoy asesora al MAHA Institute, fundado por Robert F. Kennedy Jr., actual secretario de Salud de Estados Unidos en el gobierno de Donald Trump. Mientras tanto, en Utah, el cirujano plástico Michael Kirk Moore Jr. fue absuelto de cargos por destruir vacunas y emitir certificados falsos. Ambos casos, aunque separados por el océano Atlántico, están conectados por una narrativa creciente de desconfianza hacia la medicina institucional. El debate ya no se limita a la efectividad de una vacuna, sino a quién controla la información médica y con qué intereses.Punto de giro narrativo (10 palabras)Pero las cifras globales pintan una historia mucho más compleja Malhotra trabaja en un exclusivo centro privado de longevidad en Chelsea, Londres. Hace años lideró campañas públicas contra el azúcar y el uso excesivo de estatinas. En 2021 apareció en televisión británica promoviendo la vacunación contra el Covid-19. Pero después de la muerte súbita de su padre —también médico—, cambió de postura radicalmente. Tras revisar estudios científicos y conversar con inmunólogos, comenzó a denunciar lo que él llama “la captura de la medicina por intereses comerciales”. Desde entonces ha publicado artículos en revistas científicas, ha sido entrevistado por Joe Rogan y Tucker Carlson, y ahora asesora a Robert F. Kennedy Jr., sobrino del expresidente estadounidense John F. Kennedy.RFK Jr. dirige el MAHA Institute, sigla en inglés de Make America Healthy Again, una organización paralela a su cargo público como secretario de Salud. Aunque no puede nombrar formalmente a Malhotra como funcionario estadounidense, le ha otorgado acceso privilegiado a decisiones sanitarias del actual gobierno de Trump. Del otro lado del Atlántico, en Salt Lake City, el doctor Michael Kirk Moore Jr. enfrentaba hasta 35 años de cárcel. La justicia estadounidense lo acusaba de destruir 28 000 dólares en vacunas Covid (unos 25 500 euros) y de emitir 1 937 certificados falsos por 50 dólares cada uno (alrededor de 46 euros). En algunos casos, inyectó solución salina a menores a petición de sus padres. El Departamento de Justicia presentó cargos durante la presidencia de Joe Biden, pero el nuevo gobierno los retiró el fin de semana por orden de la fiscal general Pam Bondi. Ella justificó la decisión diciendo que Moore “dio a sus pacientes una opción que el gobierno no ofreció”. La correlación entre ambos casos no es casual. El discurso contra las vacunas Covid y la desconfianza hacia la industria farmacéutica se ha consolidado como una línea política dentro del gobierno actual de Estados Unidos. Malhotra y Moore comparten el respaldo de figuras como Robert F. Kennedy Jr., quien durante años lideró la organización Children's Health Defense y ha cuestionado vacunas infantiles. Aunque dice no ser “antivacunas”, RFK Jr. impulsó la cancelación de contratos con laboratorios como Moderna y limitaciones al uso de vacunas con tecnología ARN mensajero.Mientras tanto, en el Reino Unido, las autoridades de salud pública siguen recomendando la vacunación y aseguran que los beneficios superan ampliamente los riesgos. Un metaanálisis internacional con más de 99 millones de personas —publicado en la revista científica Vaccine— concluyó que los efectos adversos graves relacionados con la vacunación son extremadamente raros. Solo se registraron dos eventos adversos graves por cada diez millones de dosis aplicadas. La narrativa de “libertad médica” promovida por Malhotra y Moore está ganando espacio gracias a canales alternativos y redes sociales. En paralelo, la desconfianza ha crecido, sobre todo en sectores rurales de Estados Unidos y Europa. Según una encuesta de 2024 citada por medios como Reuters, cerca del 28 % de los estadounidenses cree que las vacunas Covid causaron un aumento en la mortalidad, aunque no exista evidencia científica que lo respalde.En contraste, la Organización Mundial de la Salud estima que las campañas de vacunación contra el Covid-19 evitaron entre 14 y 20 millones de muertes entre 2020 y 2022. Los sistemas sanitarios europeos insisten en que los mecanismos de farmacovigilancia funcionan y que los lotes de vacunas continúan siendo sometidos a pruebas rigurosas antes de su aprobación.Por último, en el Reino Unido se debate la indemnización por efectos adversos. Se han presentado demandas que podrían costar más de 1.700 millones de libras (unos 2.200 millones de dólares o 2.000 millones de euros), aunque la mayoría de los casos aún no ha sido resuelto. Dos historias separadas por el océano —una en Londres y otra en Utah— están unidas por un mismo debate: ¿quién decide lo que es seguro en medicina? Vamos a seguir examinando tanto los datos como las intenciones detrás de cada postura. Busca Flash Diario en Spotify y activa la campana para no perderte el próximo episodio:
Caída Outlook globalFalla mundial bloqueó Outlook; Microsoft activó arreglo por fases mientras millones buscaban respuestas sin éxito Por Félix Riaño @LocutorCo Outlook dejó sin correo a medio planeta; vamos a entender qué pasó, cómo se arregló y qué puedes hacer para prevenirlo. Millones de personas comenzaron sus jornadas sin poder revisar el correo electrónico. Outlook, uno de los servicios más usados del mundo, falló al autenticar cuentas, mostrar bandejas de entrada y validar licencias. Usuarios de todo el planeta recibieron mensajes de error como “algo salió mal” o “tu licencia no es válida”, aunque sus suscripciones estaban al día. Microsoft confirmó que el problema afectó a todas las versiones del servicio: web, móvil y escritorio. El impacto fue global, pero la respuesta fue lenta. Vamos a revisar qué provocó el apagón, cómo se solucionó y qué podemos aprender. Una tormenta digital que llegó sin previo aviso La mañana empezó con notificaciones en redes sociales más que en correos electrónicos. Personas en Australia, Alemania, Brasil, España y Colombia reportaron errores al intentar acceder a Outlook. DownDetector confirmó que más del 60 % de los reportes estaban relacionados con problemas de inicio de sesión. Algunos recibieron códigos de error como 500 o 401, otros simplemente no pudieron abrir la aplicación. Microsoft confirmó que también se vieron afectados Outlook.com, Outlook para móviles y el cliente de escritorio. Mientras tanto, otros servicios como Teams, Skype y Microsoft 365 funcionaban normalmente. La desconexión fue más molesta por su silencio: nadie sabía qué pasaba y la empresa tardó en explicar. El incidente desató frustración, pero también vulnerabilidad.Un gran número de usuarios recurrió a X, antes Twitter, buscando respuestas. El servicio técnico oficial de Outlook permanecía en silencio mientras las quejas se multiplicaban. Las empresas que dependen del correo electrónico para enviar presupuestos, coordinar entregas o confirmar reuniones se vieron obligadas a pausar sus operaciones. Usuarios individuales tampoco podían validar códigos de seguridad en dos pasos que llegaban por correo. Incluso intentaron reenviar sus mensajes a Gmail o acceder desde otros navegadores, sin éxito. En redes, surgieron rumores de ciberataques y teorías extrañas, pero Microsoft aseguró que no era un hackeo, sino un error interno. El problema vino de una configuración equivocada que desalineó los sistemas de autenticación. El arreglo se desplegó poco a poco; algunos recuperaron el correo más rápido que otros.Microsoft informó que aplicó una corrección por etapas, usando su llamado “proceso de cambio seguro”. Eso significa que no arreglan todo de golpe, sino que activan el arreglo en algunos servidores primero y, si funciona, lo extienden al resto. Gracias a ese método, algunos usuarios recuperaron sus bandejas al mediodía, otros por la tarde y otros solo por la noche. Finalmente, la compañía confirmó que el servicio volvió a estar completamente activo. Validaron la reparación monitoreando el tráfico en tiempo real y confirmando con clientes que antes estaban afectados. Aunque no se ha publicado un informe técnico completo, Microsoft sí reconoció que fue un error suyo y prometió hacer más pruebas antes de futuros cambios. Esta no es la primera vez que Outlook deja a millones sin servicio. En mayo, un error en la biblioteca de formularios bloqueó cuentas. En marzo, otra caída afectó a Teams y Microsoft 365. Y en julio del año pasado, una actualización de CrowdStrike colapsó sistemas Windows en todo el planeta. Esto muestra que los errores en la nube pueden ser más comunes de lo que pensamos. Cada vez que ocurre una caída global, se encienden las alarmas sobre nuestra dependencia de un solo proveedor. Hoy Outlook volvió a funcionar, pero la lección queda clara: debemos tener alternativas, copias de respaldo y canales adicionales para comunicarnos. Incluso Skype sigue vivo, aunque casi olvidado, y fue una de las pocas herramientas de Microsoft que no se cayó.Resumen final y recomendaciónOutlook se bloqueó durante horas y dejó a millones sin acceso. Aunque ya está resuelto, es momento de revisar tus copias de seguridad y tus opciones de comunicación. Diversificar tus canales digitales puede ser una buena defensa. Escucha Flash Diario todos los días en Spotify y mantente informado sobre el mundo digital: Flash Diario en Spotify Outlook falló globalmente, Microsoft corrigió por etapas. Fue error interno. Te explico cómo prevenir que te pase otra vez.¿Te gustaría que preparemos una segunda versión más técnica para un pódcast largo o de blog?
La Tierra giró más rápido y perdimos 1,3 milisegundos, impactando relojes atómicos y GPS globales Por Félix Riaño @LocutorCo El 9 de julio de 2025 marcó un hito invisible pero fascinante: fue uno de los días más breves que ha tenido nuestro planeta. La diferencia fue mínima —1,3 milisegundos menos que las habituales 24 horas— pero el impacto en la tecnología que usamos a diario es muy real. GPS, satélites y redes de telecomunicaciones dependen de una medida del tiempo perfecta. Aunque solemos decir que un día dura 86 400 segundos, lo cierto es que la rotación de la Tierra tiene variaciones casi imperceptibles. Y justo el 9 de julio de 2025, según los relojes atómicos, nuestro planeta se apresuró lo suficiente como para completar su giro un poco más rápido que de costumbre: entre 1,3 y 1,6 milisegundos más veloz. No lo sentimos, pero los sistemas de tiempo global sí. Desde 2020 se han registrado varios días inusualmente cortos, y este verano boreal ha traído los más rápidos desde que existen registros de precisión. ¿Por qué la Tierra acelera su rotación cuando todo indica que debería estar frenándose? Pero este giro veloz llega justo cuando la Luna debería estar frenando el planeta. Los relojes atómicos son tan precisos que solo se desvían un segundo cada cien millones de años. Existen más de 400 distribuidos por todo el mundo para controlar hasta el más leve desajuste en la rotación terrestre. Desde 1972, hemos tenido que añadir 27 segundos intercalares para corregir esas variaciones y mantener sincronizados los relojes del planeta. Pero algo cambió. Desde 2020, la Tierra ha comenzado a girar más rápido en ciertos momentos, rompiendo su patrón de frenado lento. El día más corto antes de este fue el 5 de julio de 2024, y ahora el 9 de julio de 2025 le pisa los talones con una duración récord. Y no será el único: se esperan más días ultracortos el 22 de julio y el 5 de agosto. Estas diferencias de milisegundos podrían parecer insignificantes, pero para los sistemas de navegación global, los satélites meteorológicos y las telecomunicaciones, el tiempo debe ser exacto al nanosegundo. Un desfase mínimo puede alterar la posición de un satélite, desincronizar las redes de bolsa de valores o interferir en el funcionamiento de misiles y vehículos autónomos. Por eso existen los segundos intercalares, que se suman para que el tiempo civil siga el paso de la Tierra. Pero este año no se añadió ninguno. Y si la tendencia continúa, los científicos creen que en 2029 se tendrá que hacer algo sin precedentes: restar un segundo. Es decir, por primera vez, tendríamos un “segundo negativo”. ¿Cómo lo resolverán los sistemas que no están programados para algo así? Aunque no hay una sola causa confirmada, la pista más fuerte apunta a la Luna. Su órbita no solo es elíptica, sino también inclinada. Cuando la Luna se encuentra más lejos del ecuador —como ocurrió el 9 de julio— su tirón gravitacional afecta la Tierra de un modo peculiar: redistribuye masa en los océanos y la atmósfera, provocando un leve encogimiento que acelera el giro. Es como una patinadora que junta los brazos para girar más rápido. No es la única influencia: los terremotos fuertes también han alterado la rotación. El de Japón en 2011 redujo el día en 1,8 microsegundos. Pero esta vez no ha habido sismos relevantes, lo que descarta esa explicación. A largo plazo, la tendencia será que los días se alarguen, no que se acorten. El efecto de las mareas, combinado con el alejamiento progresivo de la Luna, hará que dentro de 200 millones de años los días duren 25 horas. Hace unos 200 millones de años, durante la era de los dinosaurios, los días duraban menos de 23 horas. La Luna, entonces más cercana, frenaba menos la rotación. Hoy, se aleja del planeta unos 3,8 centímetros por año, robando energía de giro mediante las mareas. Esta fricción lunar, lenta pero constante, hace que el día aumente cerca de 2 milisegundos por siglo. Otros factores también alteran el ritmo: el deshielo de los polos cambia la distribución de masa y el eje de rotación, las hojas de los árboles en primavera añaden peso lejos del centro de la Tierra, e incluso el aumento de temperatura del aire o del nivel del mar influye. Aunque cada efecto sea diminuto, todos juntos son claves para entender el comportamiento del planeta y para anticipar cómo debemos ajustar nuestros sistemas de tiempo.Resumen final y recomendaciónEl 9 de julio de 2025 fue el día más corto registrado. Perdimos milisegundos, pero ganamos un nuevo misterio sobre nuestro planeta. ¿Ya sabías esto? Comenta y no te pierdas más curiosidades del tiempo y la ciencia en Flash Diario en Spotify. El 9 de julio fue el día más corto jamás registrado: la Tierra giró más rápido y afectó nuestros relojes.BibliografíaBBC Science FocusSky at Night MagazineTIMEScientific American Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
Ana Gabriela Cabilhas (PSD): "AD está a devolver a confiança à escola pública". Gabriel Mithá Ribeiro (Chega) critica a disciplina de cidadania. Porfírio Silva diz que PS quer colaborar com o Governo.See omnystudio.com/listener for privacy information.
Trump quiere imponer un 200 % de arancel a los medicamentos importados en EE. UU. Por Félix Riaño @LocutorCo La administración Trump amenaza con un arancel del 200 % a fármacos importados. Científicos alertan sobre costos, escasez y retrasos en innovación médica. Donald Trump anunció esta semana un nuevo paquete de aranceles con impacto directo en el mundo de la ciencia médica: su gobierno planea imponer un arancel del 200 % a los medicamentos importados, una medida que podría transformar drásticamente el acceso a tratamientos, vacunas y antibióticos en todo el mundo. La decisión, todavía en fase de estudio, vendría acompañada de un período de gracia de un año, pero ya genera alarma en gobiernos, investigadores y pacientes. Además, se confirmó un arancel del 50 % al cobre importado, material clave en dispositivos médicos, sensores y laboratorios. Trump dice que quiere obligar a las farmacéuticas a fabricar dentro de Estados Unidos. Pero el costo de esa presión podría ser enorme: la ciencia médica depende de redes globales, y esta jugada podría afectar desde la producción de insulina hasta el desarrollo de nuevas terapias contra el cáncer. No es solo un tema comercial: la salud global está en riesgo. Estados Unidos importa más de 200 mil millones de dólares en medicamentos cada año. Estos productos incluyen vacunas, sueros, antibióticos, tratamientos oncológicos y fármacos para enfermedades crónicas. El origen es tan diverso como la farmacología misma: Irlanda, Suiza, India, Alemania y China lideran la lista de países proveedores. Trump, en una reunión de gabinete el 8 de julio, advirtió que estas importaciones podrían recibir un arancel del 200 %, una cifra descomunal incluso dentro de sus políticas comerciales. El anuncio no fue una improvisación: viene acompañado de investigaciones oficiales sobre el impacto de estas importaciones en la seguridad nacional. Aunque la medida no entraría en vigor de inmediato, su efecto ya se siente en los mercados. Analistas advierten que las cadenas de suministro están en riesgo, y los científicos temen una paralización del desarrollo de nuevos tratamientos. Muchos laboratorios que producen medicamentos genéricos operan con márgenes mínimos. Un arancel del 200 % podría sacarlos del mercado estadounidense, encarecer los tratamientos y agravar la escasez de medicinas esenciales. El cobre, por su parte, también fue incluido en los nuevos aranceles con un impuesto del 50 %, afectando a los dispositivos médicos que lo utilizan en su fabricación. Pero el impacto más inmediato será sobre la salud: medicamentos como la insulina, lidocaína, epinefrina o antibióticos intravenosos podrían subir de precio o desaparecer de los estantes. Los fabricantes de vacunas, que dependen de cadenas de producción globalizadas, también se verán afectados. La medida presiona a las farmacéuticas a regresar su producción a suelo estadounidense, pero eso requiere años de inversión en plantas, permisos sanitarios, entrenar personal y certificar procesos. Mientras tanto, los pacientes pagarían las consecuencias. Los laboratorios ya están tomando decisiones. Algunas empresas multinacionales consideran reducir sus inversiones en investigación si deben pagar ese arancel o asumir los costos logísticos de trasladar toda su operación a Estados Unidos. Eli Lilly y otras compañías han advertido que no es viable hacerlo de forma acelerada. Los medicamentos suelen estar exentos de aranceles por tratarse de bienes esenciales, pero Trump busca revertir esa lógica. Su equipo dice que las farmacéuticas extranjeras se benefician de sistemas públicos como el PBS australiano, que regula precios y permite a sus ciudadanos acceder a fármacos más baratos. Según Trump, eso encarece los medicamentos en Estados Unidos. Lo que no queda claro es si este castigo a los fabricantes extranjeros realmente ayudará a bajar los precios para los pacientes estadounidenses, o si simplemente los va a subir aún más. El impacto real se verá en las farmacias y hospitales. La Casa Blanca confirmó que el 1 de agosto comenzarán a aplicarse nuevos aranceles a 14 países, con impuestos de hasta 40 % sobre productos diversos. Aunque los medicamentos aún no están incluidos formalmente en esa lista, el secretario de Comercio, Howard Lutnick, afirmó que los estudios sobre su impacto se publicarán antes de fin de mes. Las farmacéuticas de India, responsables de gran parte de los medicamentos genéricos en Estados Unidos, podrían ser las más afectadas. Los expertos del Centro de Salud Empresarial de la Universidad de Carolina del Norte explican que los medicamentos genéricos, al tener menos margen de ganancia, no podrían absorber un aumento de costos sin transferirlo al consumidor. En cuanto al cobre, Estados Unidos consume más del que produce y depende de países como Chile, Perú y Australia. Si se encarece, se podrían frenar proyectos tecnológicos, desde redes eléctricas hasta dispositivos médicos inteligentes. El plan de aranceles de Trump amenaza con encarecer medicamentos, frenar la ciencia y provocar escasez. ¿Qué opinas tú? Escucha más en Flash Diario.
Glaciares despiertan volcanes: El cambio climático podría provocar erupciones volcánicas más frecuentes y explosivas, advierten científicos desde Chile y la Antártida. Por Félix Riaño @LocutorCo Estudios en los Andes revelan que el derretimiento de glaciares libera presión sobre cámaras de magma, aumentando la actividad volcánica. La Antártida y otras regiones están en riesgo. El calentamiento global no solo derrite glaciares: podría estar preparando el escenario para una nueva era de erupciones volcánicas. Investigadores de la Universidad de Wisconsin-Madison, liderados por Pablo Moreno-Yaeger, han demostrado en los Andes chilenos que cuando el hielo desaparece, la Tierra tiembla. Bajo la presión de kilómetros de hielo, los volcanes permanecen dormidos, pero al desaparecer esa capa, los gases atrapados en el magma escapan con violencia. El fenómeno podría repetirse en lugares como la Antártida, donde más de cien volcanes están ocultos bajo el hielo. ¿Estamos ante un ciclo de retroalimentación entre hielo, fuego y clima? El hielo que antes contenía al magma ya no está ahí. En lo alto de los Andes del sur de Chile, los volcanes dormidos cuentan historias escritas en lava y cenizas. Allí, el equipo de Moreno-Yaeger acampó durante semanas estudiando seis volcanes, entre ellos Mocho-Choshuenco, que significa “el cabeza cortada” en mapuche. Durante la última edad de hielo, esta zona estuvo cubierta por una capa de hielo de más de 1.500 metros de grosor. Con ayuda de datación por isótopos y análisis de cristales volcánicos, los científicos lograron reconstruir cómo la presión glaciar frenó las erupciones entre hace 26.000 y 18.000 años. Pero todo cambió cuando el hielo comenzó a desaparecer. El estudio muestra que al reducirse la presión, los gases contenidos en el magma se expanden y aumentan la explosividad. Es como abrir una botella agitada de gaseosa. Las rocas analizadas mostraron que el magma, al quedarse atrapado, tuvo tiempo para mezclarse con la corteza terrestre, volviéndose más viscoso. Eso también aumenta la violencia de la erupción. En términos geológicos, este proceso es casi inmediato, pero en escalas humanas toma siglos. Y esos siglos están corriendo ahora mismo en zonas como la Antártida. El estudio, presentado en la conferencia Goldschmidt en Praga, es uno de los primeros en demostrar este fenómeno en sistemas volcánicos continentales. Hasta ahora se conocía sobre todo por Islandia, donde el deshielo ha estado vinculado a una actividad volcánica mayor. Pero los Andes no son una isla, son un continente en ebullición.
Os enviados especiais do Observador relatam como se vive num país com duas frentes de guerra. Com Cátia Bruno e João Porfírio a partir de Israel.See omnystudio.com/listener for privacy information.
Stop Killing Games: Una petición busca proteger el derecho de jugar lo que ya pagaste Por Félix Riaño @LocutorCo Más de 1,2 millones de personas ya firmaron la petición “Stop Killing Games”, impulsada por Ross Scott, para evitar que las empresas borren videojuegos que ya fueron comprados. El caso de Ubisoft con The Crewdesató el movimiento. Comprar un videojuego y después perder el acceso sin derecho a devolución. Esa práctica, que ya no es una excepción, ha generado protestas masivas. La campaña Stop Killing Games, creada en 2024 por el creador Ross Scott, denuncia cómo los contratos de usuario están permitiendo a las grandes empresas borrar juegos comprados. Ubisoft es el caso más discutido, luego de eliminar The Crew y exigir que se destruyan las copias. La campaña ya reunió más de un millón doscientas mil firmas en la Unión Europea, buscando una legislación que proteja a los jugadores. Pero no todo son festejos: también surgieron amenazas y conflictos dentro de la comunidad. ¿Qué está pasando con la propiedad digital de los videojuegos y por qué esta protesta se volvió tan viral? Cláusulas que nadie lee, pero duelen: La letra pequeña de los contratos digitales encendió una batalla global. Cuando compras un videojuego, parece lógico pensar que es tuyo. Lo pagaste, lo descargaste, lo juegas. Pero hay una trampa escondida: los acuerdos de usuario o EULA (por sus siglas en inglés) que aceptamos al instalarlo. Muchas veces incluyen cláusulas que permiten al desarrollador borrar el juego en cualquier momento, sin compensación. Una de las más polémicas es la de Ubisoft, que dice literalmente: “Debes desinstalar el producto y destruir todas las copias en tu posesión si se cancela por cualquier motivo”. Esta frase, que parece exagerada, es una realidad legal. Y como los juegos son ahora en su mayoría digitales, eso equivale a hacerlos desaparecer de tu consola o tu computadora. Ross Scott, conocido por su canal en YouTube, decidió tomar acción cuando Ubisoft cerró los servidores de The Crew en 2024, haciendo que el juego dejara de funcionar, incluso para quienes lo habían comprado. Scott argumenta que esto es una forma de obsolescencia programada digital: vender productos con fecha de muerte no anunciada. Desde entonces, ha liderado la campaña Stop Killing Games, una iniciativa ciudadana europea que ya reunió firmas, presentó denuncias y ganó presencia en medios. La campaña apunta a que la ley europea cambie, obligando a los estudios a mantener juegos accesibles, aún sin soporte. Algunos jugadores propusieron mantenerlos a través de servidores privados, como ocurre con juegos antiguos. Pero las grandes empresas se resisten, alegando problemas de seguridad, derechos de autor y costo. Aun así, el descontento sigue creciendo. Uno de los argumentos más fuertes de la campaña es que los juegos no deberían tener fecha de vencimiento si se vendieron como productos completos. Hoy, el 87 % de los videojuegos lanzados antes de 2010 no son accesibles fácilmente, según un estudio de la Video Game History Foundation. Esto significa que miles de títulos han desaparecido por completo. Y eso no solo afecta a los jugadores, también a los archivistas, investigadores y quienes desean estudiar la historia del videojuego como forma cultural. El caso de The Crew fue el detonante, pero no el único. En los últimos dos años, Electronic Arts ha cerrado los servidores de 61 juegos. Muchos más han sido retirados de tiendas digitales como Steam, PlayStation Network o Xbox Live, dejándolos inaccesibles para siempre. Y aunque algunas tiendas como GOG tratan de conservar títulos antiguos sin DRM, son la excepción. Además, las quejas han llegado a agencias de protección al consumidor en Alemania, Francia y Australia. La campaña plantea una pregunta difícil: ¿hasta qué punto lo digital es realmente nuestro? El objetivo de Stop Killing Games no es simbólico: si la iniciativa alcanza suficientes firmas validadas, el Parlamento Europeo tendrá que considerar una ley. Ya hay más de un millón doscientas mil firmas recogidas, pero el propio Ross Scott advierte que muchas podrían ser inválidas, por errores en el llenado o firmas falsas. Por eso, están apuntando a llegar a un millón seiscientas mil. Tienen hasta el 31 de julio. No todo ha sido celebración. El desarrollador indie Pirate Software, también conocido como Thor, recibió amenazas y fue blanco de acoso masivo luego de criticar algunos aspectos vagos del movimiento. Se retiró del estudio Offbrand Games y denunció ataques a su equipo. Esto abrió un nuevo frente: ¿cómo se puede protestar por derechos digitales sin cruzar la línea del odio? A pesar de estas tensiones, Scott dejó claro que esto es más que una queja: se trata de crear leyes que garanticen que lo que compramos no desaparezca de la noche a la mañana. La industria ha respondido con resistencia. La organización Video Games Europe, que agrupa a estudios como EA, Nintendo y Microsoft, publicó un comunicado en contra de la propuesta. Dicen que forzarlos a mantener juegos vivos puede elevar los costos y limitar el diseño. Plantean que muchos juegos son online por diseño, y mantenerlos sin soporte sería inseguro. Pero eso no ha frenado al movimiento, que ya dejó en evidencia una discusión global: la brecha entre lo que compramos y lo que realmente poseemos. El conflicto de Stop Killing Games no es nuevo, pero su impacto sí lo es. La Unión Europea ya ha intervenido antes en defensa de los consumidores, por lo que la posibilidad de legislar a favor de los jugadores no es remota. Si se aprueba una ley que prohíba la eliminación unilateral de juegos ya vendidos, podría sentar un precedente global. América Latina y Estados Unidos podrían seguir ese camino. En paralelo, iniciativas como el Programa de Conservación de Juegos de GOG intentan rescatar títulos antiguos sin protección DRM, para garantizar que las personas puedan acceder a lo que ya pagaron. Más de cien juegos clásicos están disponibles allí. También surgen propuestas técnicas, como permitir que la comunidad mantenga servidores de juegos abandonados, algo común en títulos como World of Warcraft o Halo. Esta campaña va más allá del videojuego: es una discusión sobre los derechos del consumidor en la era digital. ¿Tenemos derecho a conservar lo que compramos, o solo estamos alquilando por tiempo indefinido sin saberlo? La respuesta, por ahora, depende de leyes que aún no existen. Pero gracias a más de un millón de firmas, esa respuesta ya está en debate. Más de un millón de personas piden que no se borren videojuegos ya pagados. Stop Killing Games busca cambiar las leyes en Europa. ¿Ya firmaste tú?Sigue el pódcast Flash Diario en Spotify Más de un millón de personas firmaron para impedir que empresas borren videojuegos comprados. La campaña busca cambiar la ley en Europa.
Filtraciones revelan Galaxy Z Fold 7, Flip 7 y un misterioso G Fold multifold con dos bisagras internas ¿Traerá también Gemini? Por Félix Riaño @LocutorCo Samsung está a punto de lanzar el Galaxy Z Fold 7, el Flip 7 y, por sorpresa, un nuevo teléfono plegable con doble bisagra interna que muchos ya llaman “Galaxy G Fold”. Imágenes filtradas de sus fundas y animaciones desde One UI 8 muestran que el Fold 7 será más delgado, el Flip 7 tendrá estilos renovados y el G Fold apostará por un diseño multifold nunca antes visto en Samsung. Todo esto justo antes del evento Unpacked del 9 de julio. Samsung prepara una jugada inesperada para el próximo Galaxy Unpacked. Aunque ya se sabían detalles de los Galaxy Z Fold 7 y Flip 7, ahora aparecen indicios de un dispositivo totalmente nuevo: el Galaxy G Fold o “Multifold 7”. Las pistas vienen desde animaciones ocultas en One UI 8 que muestran cómo sería su diseño con doble bisagra, cámaras triples y un despliegue en forma de “G”. Al mismo tiempo, las fundas filtradas de los nuevos plegables revelan decisiones polémicas sobre la compatibilidad con Qi2, el estándar magnético de carga inalámbrica. ¿Por qué Samsung lanzaría un cargador magnético si solo tiene una funda compatible? ¿Y qué tiene de especial ese diseño multifold? No se ha confirmado aún, pero se espera que también los nuevos teléfonos hagan parte de la alianza de Samsung con Google para integrar Gemini Live. Samsung parece emocionado, pero poco convencido con Qi2. Los Galaxy Z Fold 7 y Flip 7 ya tienen fecha de presentación: el 9 de julio en el evento Unpacked. Y aunque aún no se han mostrado oficialmente, las filtraciones ya nos dan pistas clave. En las imágenes de sus fundas oficiales vemos que el Fold 7 será notablemente más delgado que el modelo anterior, incluso con funda puesta. También se han mostrado nuevos estilos como fundas de silicona con o sin agarre, fundas transparentes, e incluso una con “escudo de carbono”. En el caso del Flip 7, la propuesta incluye fundas tipo anillo y otras con apariencia de cuero sintético. Las imágenes también confirman el uso de adhesivos en algunos accesorios, lo que sugiere que no todos están preparados para el estándar Qi2. Y aquí aparece el primer problema: Samsung parece estar adoptando el estándar Qi2 de forma a medias. Qi2 es una tecnología de carga inalámbrica que usa imanes para asegurar una mejor alineación y eficiencia. Apple la usa ampliamente bajo el nombre MagSafe. Pero en las fundas del Galaxy Z Fold 7 y Flip 7, Samsung solo incluye un único modelo compatible con Qi2. El resto de la línea no tiene imanes, lo que limita el aprovechamiento del sistema. A pesar de eso, Samsung sí está preparando un cargador magnético estilo puck, similar al de Apple. ¿Por qué lanzar un accesorio si la mayoría de tus dispositivos no están listos para usarlo? Esa decisión genera confusión y dudas sobre el compromiso real con este nuevo estándar. Ahora bien, la gran sorpresa no son esas fundas, sino el G Fold. Este nuevo modelo no anunciado oficialmente aparece en animaciones del sistema One UI 8, lo que revela que Samsung está desarrollando un dispositivo con dos bisagras internas, que se dobla como una “G”. A diferencia del Huawei Mate XT, que se dobla en forma de “S”, el diseño de Samsung evita dejar pantallas expuestas, algo que mejora la resistencia del equipo. Los paneles laterales cumplen funciones distintas: uno tiene cámaras, otro pantalla y otro sirve como superficie de cierre. Las imágenes muestran alertas para que los usuarios no doblen el dispositivo de forma incorrecta, indicando que los mecanismos son delicados. Este G Fold tendría una pantalla de 10 pulgadas y usaría un procesador Snapdragon 8 Elite. El nuevo G Fold no estaría disponible de inmediato. Informes indican que su producción masiva comenzaría en septiembre y llegaría al mercado a finales de 2025. El precio podría superar los 3.000 dólares, y solo estaría disponible en mercados como Corea del Sur y China. Samsung parece tratar este equipo como una vitrina tecnológica más que como un producto masivo. De hecho, ha usado antes su línea Fold para ensayar conceptos de hardware antes de integrarlos en dispositivos más comunes. Mientras tanto, la línea Galaxy Z sigue siendo el foco principal. El Fold 7 y el Flip 7 ya están en preventa, con beneficios como 50 dólares de crédito, triple acumulación de puntos y hasta 1.150 dólares en descuentos por canje de equipos antiguos. Samsung se prepara para un Unpacked muy llamativo con tres plegables: Fold 7, Flip 7 y un G Fold con dos bisagras. Hay novedades, filtraciones, decisiones cuestionables sobre Qi2 y un futuro plegable por descubrir. ¿Tú qué opinas? Cuéntamelo y escucha más en Flash Diario en Spotify.Samsung filtra el Galaxy Fold 7, Flip 7 y el misterioso G Fold con dos bisagras. ¿Qi2? Solo en una funda.
Detectan el tercer objeto interestelar de la historia. 3I/ATLAS se acerca al Sol, pero no representa ningún peligroUn objeto de otro sistema estelar llega al vecindario solar Por Félix Riaño @LocutorCo Astrónomos acaban de confirmar el tercer objeto interestelar de la historia: 3I/ATLAS atraviesa el sistema solar y se acerca al Sol. or tercera vez en la historia humana, se ha detectado un objeto interestelar cruzando el sistema solar. Viene desde otra estrella, desde un rincón del espacio que no conocemos, y va a atravesar nuestro vecindario cósmico a toda velocidad. Se trata de un cuerpo llamado 3I/ATLAS, descubierto en los últimos días de junio gracias a un sistema de alerta temprana diseñado para detectar objetos cercanos a la Tierra. Aunque no va a chocar con nuestro planeta ni con ningún otro, su presencia es tan especial como rara. Solo dos veces antes habíamos tenido la oportunidad de observar un objeto de este tipo: el cometa Borisov en 2019 y el misterioso ‘Oumuamua en 2017. Ahora, con mejores telescopios y más preparación, vamos a poder estudiarlo en mucho más detalle. ¿Qué podemos aprender cuando una piedra viajera llega desde tan lejos? Este objeto se mueve tan rápido que no pertenece al sistema solar. Todo comenzó con unos datos extraños registrados entre el 25 y el 29 de junio de 2025 por el sistema ATLAS. Este sistema automatizado, con telescopios en Hawái y Sudáfrica, tiene como misión detectar asteroides que podrían representar una amenaza para la Tierra. Pero esta vez captó otra cosa. Vieron un punto de luz que se desplazaba a gran velocidad por el cielo. Al analizar su trayectoria, se dieron cuenta de que algo no cuadraba: no orbitaba como los cuerpos del sistema solar. Su trayectoria era hiperbólica, lo que significa que no estaba dando vueltas alrededor del Sol, sino cruzando de paso. A11pl3Z fue su nombre provisional, y pronto pasó a llamarse 3I/ATLAS. Esa “I” significa “interestelar”. Venía de más allá del alcance de la gravedad del Sol, y eso lo hacía excepcional. Detectar un objeto interestelar es como atrapar un copo de nieve en medio de una tormenta: hay muchísimas cosas moviéndose por el espacio, pero casi todas son locales, del sistema solar. Los objetos que vienen de otras estrellas pasan tan rápido que casi nunca los vemos. En este caso, 3I/ATLAS se mueve a unos 245.000 kilómetros por hora y tiene una trayectoria que viene desde la dirección del centro galáctico, donde está la barra de la Vía Láctea. Además, se encuentra ahora a más de tres veces la distancia entre la Tierra y el Sol, cerca de Júpiter. Pronto pasará cerca de Marte. Lo más difícil es saber qué es exactamente: ¿es un cometa o un asteroide? ¿De qué está hecho? ¿Tiene una cola de gas o es simplemente una roca helada? Las respuestas aún no las tenemos. Pero sí sabemos algo: hay más como él allá afuera. A diferencia de las visitas anteriores, esta vez los astrónomos están preparados. Cuando Oumuamua pasó por el sistema solar en 2017, fue detectado después de su punto más cercano. Eso dejó muchas dudas sin resolver. Con Borisov en 2019 hubo un poco más de suerte, pero ahora con 3I/ATLAS hay una ventaja: lo descubrimos con tiempo. Su paso más cercano al Sol será el 23 de octubre, y antes de eso, el 3 de octubre, va a estar en su punto más cercano a Marte. La Tierra estará en el lado opuesto del Sol, así que no representa ningún riesgo. Pero podremos observarlo con nuevos instrumentos como el telescopio Vera C. Rubin, que es excelente para detectar objetos en movimiento. Además, se está considerando usar los rovers en Marte y hasta el telescopio James Webb para analizarlo. Algunos astrónomos quieren comprobar si presenta aceleración no gravitacional, como Oumuamua. Eso podría revelar pistas sorprendentes sobre su naturaleza. Solo dos veces antes se ha confirmado la llegada de objetos de fuera del sistema solar. ‘Oumuamua fue el primero. Detectado en octubre de 2017, tenía una forma alargada muy poco común y una trayectoria acelerada que desató muchas teorías. Algunas personas incluso sugirieron que podía ser una nave extraterrestre, pero eso quedó descartado. El segundo fue Borisov, en 2019, un cometa que sí se comportaba como los cometas de aquí, solo que venía de otro sistema. Ahora 3I/ATLAS se suma a la lista. Mide entre 20 y 40 kilómetros de diámetro, según las primeras estimaciones. Para ponerlo en contexto, eso es más grande que el Monte Everest. Según el físico Marshall Eubanks, este objeto viene del disco delgado de la galaxia, una región donde abundan estrellas jóvenes. Y lo más llamativo: cuando pase cerca de la Tierra en abril de 2026, va a tener una velocidad de 90 kilómetros por segundo con respecto a nuestro planeta. Eso podría romper todos los récords conocidos. El tercer objeto interestelar de la historia ya está aquí. 3I/ATLAS viene desde otra estrella y atraviesa el sistema solar. No es peligroso, pero sí es una oportunidad única. Comenta qué opinas de estos viajeros del espacio y escucha más historias como esta en el pódcast Flash Diario en Spotify:
Netflix transmitirá en vivo misiones espaciales con NASA+. Lanzamientos, caminatas y vistas reales del espacio. Gratis, sin anuncios Por Félix Riaño @LocutorCoLa NASA se une a Netflix este verano para transmitir en vivo misiones espaciales, caminatas de astronautas y vistas reales desde la órbita terrestre. Todo será gratuito, sin anuncios, y parte de la nueva señal NASA+. Netflix y la NASA anunciaron un acuerdo que va a permitir a millones de personas ver transmisiones espaciales en vivo desde sus pantallas. A partir de este verano, la señal NASA+ estará disponible dentro de Netflix, con contenidos como lanzamientos de cohetes, actividades extravehiculares y vistas impresionantes desde la Estación Espacial Internacional. Esta alianza busca ampliar el alcance de las misiones científicas de la agencia espacial, integrándolas a la vida cotidiana del público general. NASA+ seguirá existiendo de forma gratuita en su propia aplicación, pero ahora contará con una nueva plataforma que llega a más de 300 millones de cuentas en todo el mundo. El objetivo no es competir con las series de moda, sino inspirar desde la ciencia real. ¿Puede la ciencia conquistar la atención en la era del entretenimiento sin pausa? La historia comenzó en 1958, cuando la Ley Nacional del Espacio ordenó a la recién creada NASA compartir sus descubrimientos con el público. Desde entonces, la agencia ha usado televisión, radio, libros y ahora redes sociales para contar sus avances. En 2023, lanzó NASA+, una plataforma de streaming gratuita y sin anuncios, pensada para facilitar el acceso a contenido en vivo de sus misiones. Hasta ahora, solo estaba disponible en su sitio web y su app. Pero el nuevo acuerdo con Netflix cambia las reglas del juego. Este verano, Netflix va a comenzar a incluir dentro de su catálogo transmisiones de NASA+, sin costo adicional para suscriptores. Esto significa que cualquier persona con acceso a la plataforma va a poder ver en directo el despegue de una misión, una caminata espacial o las vistas panorámicas de la Tierra desde el espacio. Y todo esto sin necesidad de instalar nuevas aplicaciones ni conocer páginas especializadas. Así, el contenido espacial salta de lo técnico a lo cotidiano. Lo más importante es que no se trata de un documental editado, ni de una serie dramatizada. Son transmisiones reales, en vivo, con lo que está ocurriendo en el espacio en ese momento. No habrá narradores de ciencia ficción, sino cámaras apuntando a lo que sucede en la órbita baja terrestre. Un enfoque que apuesta por la emoción directa que producen las imágenes espaciales auténticas. El gran desafío para la NASA es mantenerse relevante en un panorama donde la competencia no viene solo de otras agencias espaciales, sino de plataformas digitales saturadas de contenido. Con miles de opciones disponibles, la atención del público se dispersa fácilmente. La ciencia enfrenta un doble obstáculo: ser comprendida y ser atractiva. Muchas personas desconocen que hoy la NASA está más activa que nunca, liderando investigaciones en microgravedad, salud humana, robótica y clima desde la órbita terrestre. Pero al no aparecer en la portada de las plataformas de streaming, su visibilidad disminuye. Por otro lado, Netflix también enfrenta su propio problema: necesita ampliar su oferta en vivo para competir con los eventos deportivos, los canales FAST y la televisión tradicional. Si bien ya ha transmitido combates de boxeo, partidos de fútbol americano y festivales de comedia, el contenido científico representa una apuesta distinta. Más exigente, menos inmediata, pero con un enorme valor educativo y emocional. La pregunta es si esta mezcla será suficiente para cautivar a públicos que están acostumbrados a contenidos de ficción y ritmo acelerado. La transmisión de ciencia en vivo tiene un ritmo muy distinto. Un lanzamiento puede posponerse por razones técnicas o climáticas, una caminata puede durar horas, y muchas escenas pueden parecer estáticas para el ojo inexperto. Convertir eso en una experiencia emocionante requiere un enfoque narrativo distinto, que aproveche la imagen y el contexto sin perder a la audiencia. El acuerdo entre Netflix y la NASA representa una oportunidad para cambiar la percepción del público sobre lo que es la ciencia. Más que ofrecer datos, va a permitir vivir experiencias. Ver cómo un cohete despega rumbo al espacio en tiempo real, sin efectos ni filtros, tiene un poder que puede igualar al de cualquier escena cinematográfica. La agencia busca inspirar a nuevos públicos, especialmente a jóvenes, con imágenes que despierten preguntas, sueños e interés por las ciencias. Por su parte, Netflix gana presencia en el mundo del contenido en vivo. Ya no es solo una plataforma de series o películas, sino también un punto de encuentro con la realidad, incluso si esa realidad está a 400 kilómetros de altura. Esta alianza con la NASA también puede abrir puertas a futuras colaboraciones educativas o eventos globales donde la ciencia se vuelva protagonista. Y aunque la transmisión también seguirá disponible en la app y el sitio web de la NASA, la presencia en Netflix multiplica su visibilidad. Las estadísticas lo dicen: Netflix es la plataforma más usada para ver contenido en pantallas grandes, especialmente en hogares con niños y adolescentes. Convertir el espacio en parte de la experiencia diaria puede transformar no solo la forma en que lo vemos, sino también lo que pensamos sobre el futuro. Este no es el primer experimento de la NASA con plataformas de entretenimiento. En mayo de este mismo año, lanzó un canal FAST en Prime Video con programación continua. También tiene una presencia constante en YouTube, TikTok, Instagram y hasta Spotify, con pódcasts como “Houston We Have a Podcast”. Todos estos esfuerzos buscan cumplir su mandato de divulgación, pero adaptado a las formas en que las personas consumen contenido en la actualidad.Netflix, por su parte, sigue expandiendo sus fronteras. A finales de 2024, comenzó a experimentar con transmisiones deportivas, incluyendo partidos de la NFL y un combate entre Mike Tyson y Jake Paul. Recientemente también firmó un acuerdo con el grupo francés TF1 para transmitir televisión en vivo en Francia a partir de 2026. El acuerdo con la NASA no es un movimiento aislado, sino parte de una estrategia más grande para dominar también el segmento del contenido en vivo. En ese contexto, la llegada de NASA+ a Netflix puede verse como un paso natural: ciencia real en una plataforma global. Y aunque no se revelaron detalles económicos, el impacto será más cultural que financiero. Es una apuesta por el conocimiento, por el acceso libre a información científica, y por el derecho de todos a mirar el espacio desde su sofá… o desde su celular. Netflix va a comenzar a transmitir NASA+ en vivo: lanzamientos de cohetes, caminatas espaciales y vistas reales desde la órbita terrestre. Todo esto será gratis y sin anuncios. Una alianza para que la ciencia esté más cerca que nunca. Si te gustó esta historia, comenta y escucha más en Flash Diario en Spotify.
Apple prueba usar ChatGPT o Claude en Siri porque sus modelos propios no funcionan como esperaba. Siri nueva llegaría en 2026 Por Félix Riaño @LocutorCo Apple planea cambiar los cerebros de Siri por modelos de inteligencia artificial como ChatGPT o Claude de Anthropic, y dejar sus propios modelos atrás. Apple está a punto de tomar una decisión que cambiaría todo lo que conocemos de Siri. Según varios reportes, la compañía ha iniciado conversaciones con OpenAI y Anthropic para que sus modelos de inteligencia artificial —como ChatGPT o Claude— sean el nuevo motor detrás del asistente de voz en iPhone, iPad y Mac. Eso dejaría en pausa los modelos internos de Apple, que llevaban años en desarrollo. Aunque el rediseño completo de Siri fue anunciado en 2024 y luego retrasado hasta 2026, esta nueva jugada podría acelerar el cambio... o generar más dudas. ¿Qué está pasando dentro de Apple para que considere esta jugada tan drástica? Apple duda de su propia IAApple está tanteando reemplazar sus propios modelos de inteligencia artificial con otros creados por empresas externas. Según Bloomberg y Reuters, la empresa de la manzana está probando versiones personalizadas de los modelos ChatGPT de OpenAI y Claude de Anthropic. Estas versiones funcionarían en sus servidores seguros, conocidos como Apple Private Cloud Compute. ¿El motivo? Apple no está conforme con los avances que ha logrado internamente y necesita una solución rápida para no quedarse atrás frente a Google, Samsung o Meta. Desde hace meses, Apple intenta mejorar a Siri para que pueda entender el contexto personal de cada usuario y actuar dentro de las aplicaciones. Pero los avances han sido tan lentos que el rediseño de Siri, anunciado con bombo y platillo en 2024, fue oficialmente aplazado a 2026. Entre tanto, otras marcas avanzan: Samsung ya integra la IA Gemini de Google en sus teléfonos Galaxy y está cerrando acuerdos con Perplexity, mientras que Apple aún sigue en fase de pruebas.Este nuevo plan, si se concreta, implicaría un cambio histórico: Apple siempre ha apostado por desarrollar sus propios sistemas. Pero ahora estaría considerando dejar esa filosofía de lado, al menos por un tiempo. Pérdida de talento y confianza Uno de los investigadores más veteranos en inteligencia artificial dejó Apple, y casi se va un equipo completo. Lo que está ocurriendo en Apple no es solo técnico, también es humano. Uno de los investigadores más importantes en modelos de lenguaje, Tom Gunter, dejó la empresa tras ocho años. Según AppleInsider, la salida de Gunter es parte de una crisis más profunda: la empresa estuvo a punto de perder todo el equipo detrás de MLX, su framework de aprendizaje automático optimizado para chips Apple Silicon.Ese equipo había amenazado con renunciar en bloque. Para evitarlo, Apple tuvo que ofrecer incentivos urgentes y rediseñar sus proyectos. MLX no es cualquier cosa. Es clave para lograr que los modelos de inteligencia artificial funcionen directamente en dispositivos sin necesidad de conexión a internet. Que casi pierdan ese talento revela tensiones internas muy fuertes. La situación se agravó cuando Tim Cook, el CEO, perdió la confianza en John Giannandrea, quien lideraba la estrategia de inteligencia artificial. Ahora, el nuevo jefe de IA y de Siri es Mike Rockwell, quien antes estaba a cargo de las gafas Vision Pro. Además, Craig Federighi —el jefe de software— tomó las riendas de toda la estrategia. El conflicto en Apple es más profundo de lo que parece. Por un lado, la empresa necesita mantener su reputación como creadora de tecnología de primer nivel, sin depender de terceros. Por el otro, sus desarrollos internos no han dado el resultado esperado, y Siri sigue siendo vista como una asistente limitada frente a Google Assistant o Alexa. Incluso los fans de Apple reconocen que Siri está rezagada.La apuesta de Apple por la privacidad es fuerte. Por eso está pidiendo a OpenAI y Anthropic que entrenen versiones de sus modelos que puedan correr en servidores de Apple con chips propios, evitando enviar datos a servidores externos. Eso suena bien en papel, pero también es más costoso y lento. Mientras tanto, sus competidores avanzan con acuerdos más ágiles. Google integra su modelo Gemini no solo en sus teléfonos Pixel, sino también en los Samsung Galaxy. Amazon sigue empujando Alexa en dispositivos del hogar. Apple, con su promesa de lanzar un Siri mejorado en 2026, corre el riesgo de llegar tarde. Y si la gente se acostumbra a usar otros asistentes antes de que Siri esté lista, recuperar terreno será aún más difícil. Apple aún no ha tomado una decisión definitiva. Está en fase de pruebas, comparando cuál modelo funciona mejor para Siri: Claude de Anthropic, ChatGPT de OpenAI o su propio modelo interno. Según Bloomberg, hasta Google Gemini ha sido evaluado. Las pruebas se están realizando en servidores privados, con condiciones muy controladas, pero reflejan un cambio de estrategia en Cupertino.Que Apple considere usar un modelo externo no significa que lo hará para siempre.Ya en 2012 había pasado algo parecido con sus mapas: primero usaron Google Maps, luego lanzaron Apple Maps. Podría hacer lo mismo con Siri: usar un modelo de otro mientras termina de pulir el suyo propio. Pero la diferencia es que ahora el mercado se mueve más rápido, y la IA cambia cada mes.En septiembre, con el lanzamiento de iOS 26, iPadOS 26 y macOS 26, Apple va a incluir algunas funciones nuevas relacionadas con inteligencia artificial. Pero no será el gran rediseño de Siri. Ese llegará, si todo sale bien, en 2026. Lo que está en juego es enorme: el futuro de Siri, la credibilidad de Apple y la carrera por liderar la inteligencia artificial en dispositivos personales. Siri fue lanzada por Apple en 2011 y, desde entonces, ha recibido muchas actualizaciones... pero pocas han sido revolucionarias. Mientras tanto, los modelos de lenguaje como ChatGPT de OpenAI han dado saltos enormes en capacidades, entendimiento y utilidad. Esa diferencia es lo que Apple intenta acortar ahora.La empresa ya ha empezado a incluir partes de ChatGPT en su sistema Apple Intelligence. Pero pasar a depender completamente de modelos externos para Siri sería algo nunca visto. En parte, esto ocurre porque otras empresas están ganando la guerra del talento: OpenAI, Meta y Google ofrecen sueldos millonarios a expertos en IA. Apple, que antes era vista como el lugar ideal para trabajar, ahora lucha por retener ingenieros.Además, hay una presión pública. En cada conferencia de desarrolladores, los usuarios esperan ver algo nuevo, algo que impresione. Y en la WWDC 2025, Siri casi no apareció. Eso encendió las alarmas. Craig Federighi dijo que aún no estaba lista, que no cumplía los estándares de calidad. Esa honestidad fue bien recibida, pero dejó claro que algo no iba bien dentro de Apple.En resumen: Apple está en una carrera que no puede perder. Necesita mejorar a Siri, retener su talento y, al mismo tiempo, proteger su reputación de privacidad. La solución perfecta no existe aún, pero la decisión que tomen pronto definirá el futuro del iPhone, del iPad y hasta del Mac. Apple está pensando en cambiar el motor de Siri por inteligencia artificial de OpenAI o Anthropic. ¿Se atreverá a dar el salto?Cuéntame qué opinas y sigue el pódcast Flash Diario en Spotify para no perderte el desenlace.
Agua del aire:
O enviado especial do Observador, João Porfírio, está, juntamente com a Cátia Bruno, num bairro de Telavive que ficou totalmente destruído na sequência dos ataques iranianos.See omnystudio.com/listener for privacy information.
Científicos británicos crean genes humanos en laboratorio para estudiar enfermedades y desarrollar terapias celulares del futuro Por Félix Riaño @LocutorCo Investigadores del Reino Unido están construyendo fragmentos de ADN humano sintético para entender cómo funciona el genoma y diseñar nuevos tratamientos. Un equipo de científicas y científicos del Reino Unido está comenzando un experimento tan ambicioso como polémico: fabricar partes del ADN humano desde cero. Es decir, no editar genes existentes, sino construir nuevas cadenas genéticas, base por base, como si estuvieran armando un genoma humano desde el principio.El proyecto se llama Synthetic Human Genome, o SynHG, y su objetivo es comprender cómo funciona el ADN para poder crear terapias más precisas y resistentes a enfermedades.Con una inversión inicial de 10 millones de libras esterlinas por parte de la fundación médica Wellcome Trust, el proyecto reúne a expertos de universidades como Cambridge, Oxford e Imperial College.Van a dedicar cinco años a crear herramientas para ensamblar secciones grandes de un cromosoma humano en el laboratorio y observar cómo se comportan en células vivas. Pero no todo es esperanza médica: también hay preguntas éticas difíciles. ¿Qué pasa si alguien usa esta tecnología para crear armas biológicas o humanos modificados? La promesa médica es enorme, pero el debate ético ya está encendido. Desde que se completó el Proyecto Genoma Humano en 2003, los científicos han logrado leer el ADN como si fuera un código de barras.Pero leer no es lo mismo que escribir.Ahora, el objetivo del SynHG es ir más allá y construir fragmentos del genoma humano como prueba de concepto. El primer paso será crear un cromosoma sintético, que representa aproximadamente el dos por ciento del ADN humano total. Para lograrlo, están utilizando inteligencia artificial y tecnologías de ensamblaje molecular, con la idea de diseñar células humanas que funcionen igual que las naturales, pero con mejoras específicas.Por ejemplo, células que puedan resistir virus o regenerar órganos dañados como el hígado, el corazón o incluso el sistema inmunológico. Aunque hoy suena a ciencia ficción, el equipo ya logró sintetizar el genoma completo de bacterias como E. coli, así que el reto ahora es escalar esa tecnología a un nivel humano. Y si lo logran, podríamos estar frente al inicio de una nueva medicina. Este avance tecnológico trae consigo un debate ético urgente y profundo. El solo hecho de poder fabricar cromosomas humanos en laboratorio plantea preguntas como: ¿Quién tendrá el control de estas tecnologías? ¿Qué uso se les dará? ¿Cómo se va a regular su aplicación?Algunas voces ya advierten que los riesgos van más allá de los laboratorios. Por ejemplo, el profesor Bill Earnshaw, de la Universidad de Edimburgo, señaló que si un grupo con malas intenciones accede a esta tecnología, podría sintetizar organismos para crear armas biológicas o alterar el equilibrio ambiental. Y hay otra preocupación: la creación de “bebés a la carta”. Aunque los investigadores insisten en que eso no es el objetivo, temen que en el futuro alguien intente copiar el ADN de celebridades o modificar genes para diseñar seres humanos a medida.También hay un dilema legal: si se crean tejidos, células u órganos sintéticos, ¿quién será el dueño ¿El laboratorio, el paciente, o la empresa que fabrica las herramientas?Por eso, el proyecto incluye desde el comienzo un componente social y ético llamado Care-full Synthesis, liderado por la profesora Joy Zhang. Este programa está trabajando con comunidades de todo el mundo para debatir abiertamente los límites, los miedos y los beneficios de esta nueva etapa de la biología. El futuro que propone el proyecto SynHG es tan fascinante como complejo. En el mejor de los casos, podríamos tener terapias celulares que no provoquen rechazos, tejidos inmunes a enfermedades como el cáncer o el VIH, y órganos cultivados a partir de células sintéticas para trasplantes. También se podrían evitar enfermedades hereditarias graves, como las mitocondriales, sin necesidad de recurrir a donantes. La posibilidad de diseñar mitocondrias sintéticas, por ejemplo, reduciría a la mitad el número de mujeres que deben someterse a procesos invasivos para evitar transmitir estas condiciones a sus hijas o hijos.A nivel científico, esta tecnología permitiría probar hipótesis sobre la función del genoma, algo que hoy solo se puede hacer modificando genes existentes. Por ejemplo, entender partes del genoma que se conocen como “materia oscura genética”, que aún no sabemos para qué sirven. Pero hay una condición importante: la investigación debe ser abierta, responsable y equitativa. Actualmente, la mayoría de los estudios genéticos se concentran en personas de ascendencia europea.El programa Care-full Synthesis busca corregir este sesgo e involucrar a comunidades de América Latina, África y Asia, para que sus perspectivas también definan cómo debe usarse esta tecnología.Construir un genoma humano completo podría tardar décadas, pero el solo hecho de crear un cromosoma ya sería un hito que cambiaría nuestra comprensión de la vida. El ADN humano está formado por más de 3.000 millones de pares de bases, mientras que el genoma de bacterias como Mycoplasma genitalium o E. colitiene apenas entre 500.000 y 4.500.000.Esa diferencia de complejidad muestra por qué este proyecto es tan ambicioso. El director de investigación del Wellcome Trust, Michael Dunn, dijo que entender el genoma a través de la síntesis genética puede ayudarnos a responder preguntas sobre salud y enfermedades que hoy ni siquiera sabemos formular.Y no se trata solo de medicina. También podría usarse para mejorar cultivos agrícolas resistentes a plagas y al cambio climático. En ese sentido, la biología sintética no es solo una herramienta médica, sino también una estrategia para enfrentar desafíos globales. Aún no hay terapias listas para usar, pero este es el momento ideal para hablar de sus límites. El pasado nos ha enseñado que es mejor desarrollar estas tecnologías con reglas claras desde el comienzo, que intentar corregir los errores después. Por eso, científicos, sociólogos, organizaciones civiles y gobiernos están invitados a participar desde ya en el debate. Lo que está en juego no es solo un avance científico. Es decidir juntos qué tipo de futuro queremos construir. El proyecto SynHG busca fabricar fragmentos de ADN humano desde cero para diseñar nuevos tratamientos. ¿Será el comienzo de una nueva era biológica? Sígueme en Flash Diario en Spotify para descubrirlo cada día. Crean ADN humano en laboratorio desde cero. ¿Será la cura del futuro o un riesgo global? La ciencia da otro paso.
Robots que aprenden tareas viendo videos... y sin conexión a internet Por Félix Riaño @LocutorCo Google DeepMind presentó Gemini Robotics On-Device, un modelo que funciona dentro del robot, sin necesidad de la nube, aprende rápido y se adapta a distintos cuerpos robóticos. Google DeepMind presentó un modelo de inteligencia artificial que no necesita conexión a internet para funcionar. Se llama Gemini Robotics On-Device y opera dentro del robot. Es rápido, privado y ya puede doblar ropa, abrir cremalleras y adaptarse a varios tipos de robots sin tener que volver a entrenarlo desde cero. Aprende viendo tareas nuevas entre 50 y 100 veces. Se entrena rápido y ejecuta en tiempo real. Es como tener un robot que piensa por su cuenta, sin depender de ningún servidor externo. ¿Ya estamos cerca de tener robots verdaderamente autónomos en nuestras casas y trabajos? Este robot no necesita nube para pensar. Piensa dentro de sí mismo. Imagina que tienes un robot en casa. Le dices “dobla esta camiseta” y lo hace sin conectarse a internet. Esa es la idea de Gemini Robotics On-Device. Funciona completamente desde el robot. Google entrenó este modelo en su robot ALOHA y luego lo adaptó al humanoide Apollo y al robot Franka FR3 con dos brazos. Se adapta con rapidez y funciona sin ayuda externa. Lo sorprendente es que aprende nuevas tareas con solo 50 a 100 demostraciones. Puede entender instrucciones como “abre esta cremallera” y ejecutar la acción con precisión. Todo se procesa dentro del robot. Nada se envía a la nube. Los robots que necesitan internet pueden fallar si la red se cae. Además, enviar todo lo que ven a la nube plantea problemas de privacidad. En entornos sensibles como hospitales, fábricas o casas, eso no es aceptable. Gemini Robotics On-Device elimina ese riesgo. El procesamiento local evita filtraciones y funciona incluso sin señal. Eso permite usarlo en lugares donde antes era impensable. Pero también hay desafíos: los desarrolladores deben encargarse de que el robot no cometa errores peligrosos. Google sugiere usar su API de seguridad o crear mecanismos de protección propios para evitar comportamientos inadecuados o inseguros. Gemini Robotics On-Device es ideal para tareas cotidianas. Se entrena rápido, se adapta a distintos robots y actúa en tiempo real. No sustituye al modelo más avanzado en la nube, pero lo complementa. Puede operar sin conexión, lo que es útil en lugares con mala señal o donde la privacidad es prioritaria. Google lanzó un SDK que permite entrenar nuevos comportamientos usando el simulador físico MuJoCo. Ya hay testers trabajando con el modelo. En poco tiempo podríamos ver robots que doblan ropa, ensamblan piezas o colaboran en casa sin necesidad de conexión. El futuro robótico, autónomo y local ya llegó. Otras empresas también trabajan en robótica. Nvidia está desarrollando una plataforma de modelos base para robots humanoides. Hugging Face crea conjuntos de datos abiertos para entrenar robots. La startup coreana RLWRLD también desarrolla modelos fundacionales. Pero Google ya tiene un modelo funcional probado en robots reales. Su equipo ReDI evalúa la seguridad y el impacto social del sistema. Cada nuevo avance pasa por el Consejo de Seguridad y se hacen pruebas para corregir errores. La versión actual está basada en Gemini 2.0, pero vendrán más potentes. La robótica sin internet ya no es futuro. Es presente. Robots que aprenden sin internet, ejecutan tareas en tiempo real y cuidan tu privacidad. Gemini Robotics On-Device ya está en pruebas reales. ¿Qué tarea le enseñarías tú? Comenta y sigue el pódcast Flash Diario en Spotify.
Activa estas funciones de seguridad en Android y Samsung Galaxy para proteger tu información si te roban el teléfono Por Félix Riaño @LocutorCo Samsung y Android están empujando fuerte con funciones antirrobo. Vamos a contar cómo activarlas, qué hacen exactamente y por qué no debes confiarte con dejar el celular desbloqueado en el bolsillo. Los robos de celulares siguen creciendo. En Bogotá, la Policía ya ha recuperado más de mil ochocientos celulares robados este año. En Reino Unido, Samsung está enviando notificaciones masivas a cuarenta millones de personas para que activen sus funciones de protección. Y si tienes un Galaxy con One UI 7, puedes bloquear el teléfono aunque esté sin internet, pedir autenticación biométrica para cambiar datos, o activar un retraso de seguridad si alguien intenta alterar tus huellas digitales. ¿Y si tienes un Android de otra marca? También puedes protegerte… pero con algunos límites. ¿Sabías que hay que correr bastante para que se active la protección contra robos? Activar estas funciones no es automático: hay que buscarlas. Vamos a contarlo como es: no basta con tener un teléfono caro o moderno. Si no activas tú mismo las funciones de protección, tu información queda expuesta en caso de robo. Y no solo hablamos de perder tus fotos o mensajes. También podrían tener acceso a tus correos, tu cuenta bancaria o tus redes sociales. Por eso, Samsung ha incluido en su actualización One UI 7 un paquete de seguridad que vale la pena entender y configurar. Incluye bloqueo remoto, bloqueo sin conexión, verificación biométrica desde ubicaciones desconocidas, y algo llamado "retraso de seguridad" para darte una hora antes de que los ladrones puedan cambiar tus datos biométricos. Todo eso está disponible en los Galaxy S25, S24, S23, S22, Fold5, Fold6, Flip5 y Flip6. En muchas ciudades de América Latina y Europa, los robos de celulares no son cosa del pasado. Siguen ocurriendo en buses, en la calle, en cafeterías. Y muchas veces, el ladrón no necesita correr. Basta con que vea tu PIN una vez y tenga el equipo desbloqueado en sus manos para que acceda a todo. Aunque Android y Samsung han mejorado sus sistemas, aún hay vacíos. Por ejemplo, algunas funciones como la detección de robo no funcionan si el teléfono está bloqueado o simplemente está sobre la mesa sin movimiento. Y aunque los sensores de movimiento activan bloqueos automáticos si detectan una sacudida violenta, no siempre es suficiente. A eso se suma que estas funciones no vienen activadas de fábrica: hay que entrar a configuración, buscar “Protección contra robo” y activarlas manualmente. La buena noticia es que sí puedes protegerte. Vamos a contarte cómo activar tres funciones clave si tienes Android 10 o superior: primero, “Bloqueo por detección de robo”, que se activa si el celular detecta un movimiento brusco o si se desconectan el Wi-Fi y el Bluetooth de manera sospechosa. Segundo, “Bloqueo sin conexión”, que impide el acceso si el teléfono pierde señal o entra en modo avión. Y tercero, el “Bloqueo remoto”, que puedes activar desde cualquier navegador entrando a android.com/lock y escribiendo tu número. En el caso de los Galaxy con One UI 7, hay mejoras extra: por ejemplo, el teléfono se bloquea automáticamente si alguien intenta borrar las huellas digitales, y se impone una espera de una hora antes de aceptar nuevos datos biométricos. Ese margen de tiempo permite que puedas bloquearlo tú desde un computador o tableta antes de que el ladrón acceda a tu cuenta. Google entrenó la inteligencia artificial de Android para detectar robos basándose en sensores de movimiento y en patrones típicos de hurto. Para eso, su equipo de seguridad hizo pruebas en Brasil, uno de los países con más robos de celulares. En esas pruebas, simularon robos corriendo, en bicicleta o en carro, para generar trazas que luego alimentaron el modelo de inteligencia artificial. Pero hay un detalle curioso: el sistema solo se activa si el celular está desbloqueado y en uso. Es decir, si te lo quitan de las manos mientras lo estás usando. No funciona si está bloqueado sobre la mesa. Además, la protección se detiene si se activa dos veces seguidas para evitar falsos positivos. Algunos usuarios reportan que necesitan correr bastante rápido para que se active, lo cual sugiere que los ladrones tienen mejor condición física que muchos de nosotros. Por eso, Google recomienda tener activado también el Bloqueo sin conexión y el Bloqueo remoto. Y como consejo adicional: usa una contraseña larga, no un PIN fácil de adivinar. Proteger tu teléfono Android o Galaxy está en tus manos. Activa ya las funciones antirrobo y configura el bloqueo biométrico. Te invito a compartir este episodio y seguir el pódcast Flash Diario en Spotify:Flash Diario en Spotify
El nuevo Chromebook Plus 14 de Lenovo usa IA para organizar, crear y funcionar sin conexión. ¿Adiós a Windows? Por Félix Riaño @LocutorCo El nuevo Chromebook Plus 14 de Lenovo marca un paso importante en la evolución de los portátiles con inteligencia artificial integrada. Google le ha apostado a potenciar ChromeOS con Gemini, funciones avanzadas como agrupación automática de pestañas, edición de imágenes local y una autonomía de hasta 17 horas. A esto se suma Android 16, que llega con ventanas redimensionables y compatibilidad con pantallas externas, trayendo de regreso el debate: ¿estamos a punto de ver el nacimiento de Android para escritorio? La jugada de Google con estos dos frentes podría cambiar la forma en que usamos nuestros dispositivos para trabajar, estudiar y crear. Google parece estar duplicando esfuerzos en dos frentes parecidos El 23 de junio de 2025, Google y Lenovo anunciaron el lanzamiento del Chromebook Plus 14, el primer portátil con ChromeOS equipado con el nuevo procesador MediaTek Kompanio Ultra 910 y capacidades de inteligencia artificial local. Este modelo marca un antes y un después para los Chromebooks, integrando funciones de edición de imágenes directamente en la app de galería y herramientas como agrupación inteligente de pestañas y documentos. Estas mejoras no dependen de conexión a internet, gracias a la NPU (unidad de procesamiento neuronal) capaz de ejecutar hasta 50 billones de operaciones por segundo. Además, el dispositivo ofrece una pantalla OLED de 14 pulgadas, 400 nits de brillo, altavoces con Dolby Atmos, hasta 16 GB de RAM y compatibilidad con dos pantallas externas 4K. Todo esto en un cuerpo delgado de apenas 1,17 kilogramos. Es el Chromebook más potente hasta ahora y viene con un año gratuito de Google AI Pro, lo que incluye herramientas como Gemini 2.5 Pro, Flow y Veo 3 Fast. Pero mientras ChromeOS gana nuevas funciones, Google también ha estado construyendo una alternativa: Android 16 con capacidades de escritorio. Este nuevo enfoque incluye ventanas redimensionables, modo multiventana y la posibilidad de conectar pantallas externas para usar un teléfono o tablet como si fuera un computador completo. Con eso, Android empieza a parecerse a un sistema operativo de escritorio. De hecho, durante el evento I/O 2025, Google mostró cómo Android 16 puede usar una pantalla externa para transformar un dispositivo móvil en una herramienta de productividad con múltiples ventanas abiertas. ¿Estamos ante una estrategia de transición? Algunos analistas creen que Google está preparando a Android para reemplazar en el futuro a ChromeOS en ciertos segmentos del mercado. Al mismo tiempo, ChromeOS sigue presente en educación, empresas y dispositivos como este nuevo Chromebook de Lenovo. ¿Es sostenible mantener dos sistemas de escritorio? ¿O veremos una fusión completa más adelante? Por ahora, parece que Google va a seguir desarrollando ambas plataformas en paralelo. Android 16 se enfoca más en la experiencia multitarea en tablets y teléfonos, mientras que ChromeOS mantiene su fortaleza en el mundo académico y profesional. Pero la diferencia se está acortando. El Lenovo Chromebook Plus 14 ofrece funciones que antes solo veíamos en Android: búsquedas visuales con Lens, transcripción de texto desde imágenes y hasta generación de imágenes con inteligencia artificial. Todo esto lo hace sin enviar datos a la nube, lo que garantiza privacidad y velocidad. Además, los dispositivos Chromebook Plus nuevos incluyen un año de Google AI Pro y Gemini instalado desde el primer día. Mientras tanto, Android 16 se prepara para llevar la experiencia de escritorio a más dispositivos móviles, con un enfoque que recuerda a Samsung DeX. ¿La diferencia? Ahora todo estará potenciado por inteligencia artificial y Gemini. En el futuro, podríamos tener Chromebooks convertibles en tablets o tablets que se comportan como Chromebooks. Sea como sea, Google quiere que el usuario final tenga una experiencia fluida, inteligente y conectada. El Lenovo Chromebook Plus 14 no solo destaca por su potencia técnica. Es un equipo pensado para personas que necesitan productividad real en movilidad. Con hasta 17 horas de batería y conectividad Wi-Fi 7, es ideal para quienes trabajan desde cualquier lugar. Además, su pantalla OLED con gama de color 100% DCI-P3 es perfecta para creadores visuales. Lenovo también incluyó una cámara de 5 megapíxeles con obturador físico para privacidad, teclado retroiluminado y chasis de aluminio. Es un dispositivo silencioso, sin ventilador, y con opciones de almacenamiento hasta 256 GB UFS. A nivel empresarial, puede incluir Chrome Enterprise Upgrade para gestión remota en empresas. En educación, los colegios pueden optar por Chrome Education Upgrade para controlar y personalizar el entorno digital de cada estudiante. En resumen, este Chromebook Plus 14 es el modelo más ambicioso hasta ahora. Y la competencia de Google con Windows y macOS ya no será solo en el navegador. Ahora se está dando en el terreno de la inteligencia artificial y los escritorios híbridos. El Lenovo Chromebook Plus 14 representa un gran paso hacia un futuro de computación híbrida e inteligente. Google está unificando su ecosistema entre Android y ChromeOS con Gemini al frente. Si te interesa el futuro de los escritorios con IA, sigue este podcast en Spotify y cuéntame qué opinas sobre esta convergencia de plataformas:
NASA detecta la huella del accidente del módulo japonés Resilience en Mare Frigoris, una región volcánica lunar Por Félix Riaño @LocutorCo Un módulo japonés llamado Resilience, construido por la empresa ispace, debía aterrizar suavemente en la Luna. En su lugar, dejó una mancha oscura en el polvo lunar. El accidente ocurrió el 5 de junio, pero las imágenes que lo confirman llegaron hasta ahora. Fueron tomadas por el orbitador LRO de la NASA y muestran una marca inconfundible: un punto negro rodeado por un halo claro, formado por el polvo que se levantó al impactar. La historia de este accidente no es solo una crónica de fracaso, también es una oportunidad para aprender. ¿Qué nos dicen las imágenes del impacto sobre los límites de la exploración espacial privada? Es el segundo intento fallido de ispace en solo dos años. La mañana del 5 de junio de 2025, desde el centro de control en Tokio, la empresa ispace intentó hacer historia. Su módulo lunar Resilience, lanzado el 15 de enero desde Cabo Cañaveral, estaba por completar una misión ambiciosa: tocar la superficie de la Luna de manera controlada, liberar un pequeño rover y abrir paso a futuras misiones comerciales japonesas. El sitio elegido fue Mare Frigoris, conocido como el Mar del Frío, una región del norte lunar con valor científico y estratégico. A bordo del módulo iba Tenacious, un microrobot desarrollado por la división europea de ispace, con sede en Luxemburgo. Incluso llevaba una pequeña obra de arte: una réplica de una casa sueca tradicional, pintada de rojo y blanco. Todo parecía listo para hacer historia, pero en lugar de celebrar, el equipo perdió comunicación. El aterrizaje se transformó en un misterio que solo se resolvió días después. El problema surgió en los últimos segundos. El módulo descendía con precisión hasta que, sin previo aviso, el contacto se perdió. Durante horas no hubo señales. ispace no podía confirmar si Resilience había aterrizado o se había estrellado. Días más tarde, el orbitador LRO de la NASA ayudó a resolver el enigma. Desde unos 80 kilómetros de altitud, captó una imagen en blanco y negro de la zona. Allí se ve una mancha oscura con un halo claro a su alrededor. Es la marca de un impacto. Según los expertos, ese tipo de huella solo puede formarse si un objeto golpea la superficie a gran velocidad, levantando regolito: el polvo fino y rocoso que cubre la Luna. Esa marca fue comparada con fotos previas y no estaba antes. La conclusión fue inmediata: Resilience se estrelló. Y lo hizo a 2,4 kilómetros del punto exacto donde debía aterrizar. Una distancia que, en misiones lunares, es demasiado grande como para pasar por alto. La historia no termina en el impacto. La imagen de la NASA fue obtenida el 11 de junio, seis días después del accidente. El equipo de la misión LRO usó una cámara de alta resolución, llamada LROC, que puede detectar detalles mínimos en la superficie lunar. Comparando imágenes anteriores y posteriores, confirmaron la alteración del terreno. La zona del impacto será ahora objeto de estudio. No solo por el accidente, también por su ubicación: Mare Frigoris es una planicie volcánica muy antigua, con arrugas geológicas llamadas wrinkle ridges, formadas por el enfriamiento y contracción del suelo. Saber cómo responde este terreno ante impactos recientes puede aportar datos clave para futuras misiones, sobre todo en la planificación de aterrizajes. Aunque ispace ha tenido dos fracasos consecutivos —el anterior fue en abril de 2023—, cada intento suma información. En el mundo de la exploración espacial, incluso los errores dejan lecciones que pueden evitar tragedias más adelante. ispace va a presentar en los próximos días un informe oficial con las causas del fallo. Por ahora, la imagen de esa mancha lunar se convierte en el símbolo más reciente del esfuerzo humano por llegar más allá. El orbitador LRO (Lunar Reconnaissance Orbiter) lleva desde 2009 dando vueltas alrededor de la Luna. Fue lanzado por la NASA con el objetivo de estudiar el terreno lunar a fondo. Entre sus siete instrumentos, destaca el sistema de cámaras LROC, capaz de ver detalles minúsculos. Gracias a estas cámaras, se han podido observar los sitios donde aterrizaron las misiones Apolo, cráteres recién formados por meteoritos y ahora también el impacto de misiones fallidas, como Resilience. Este seguimiento no es solo un registro histórico. Sirve para planificar nuevas misiones y analizar cómo cambia la superficie lunar con el tiempo. La región de Mare Frigoris, donde ocurrió este choque, es de especial interés porque combina un terreno liso con zonas de tensión geológica. Esto la hace atractiva tanto para misiones robóticas como tripuladas. La visibilidad de esta huella en el polvo lunar también ayuda a estudiar cómo se dispersa el regolito, algo importante para proteger naves y equipos en misiones futuras. El impacto fue desafortunado, pero los datos que deja son un tesoro para científicos e ingenieros. El módulo japonés Resilience no logró aterrizar suavemente, pero su marca quedó grabada en la Luna. NASA la detectó y ahora tenemos nuevas pistas para mejorar futuras misiones. Si te interesan las historias donde ciencia, errores y descubrimientos se cruzan, escucha más en Flash Diario en Spotify.
Adobe mejora tu cámara: App gratuita con inteligencia artificial para iPhone con IA, controles manuales y fotos RAW de alta calidad Por Félix Riaño @LocutorCo Adobe acaba de presentar una app experimental que transforma el modo en que usamos la cámara del iPhone. Se llama Project Indigo, y ya está disponible gratis en la App Store. Detrás del desarrollo están los mismos ingenieros que crearon la cámara de los teléfonos Pixel de Google. La promesa es clara: ofrecer una experiencia de captura con aspecto profesional, basada en inteligencia artificial, procesamiento por ráfagas y controles manuales. ¿Puede una app gratuita reemplazar la cámara nativa del iPhone y convertirse en la favorita de quienes aman la fotografía móvil? Project Indigo no toma una sola foto: toma hasta 32 imágenes en ráfaga, las alinea y las fusiona para crear una sola más precisa, con menos ruido, mejor rango dinámico y más detalle. Lo más impresionante es que lo hace con un enfoque natural, evitando los efectos exagerados que muchos usuarios detestan. Está disponible desde el iPhone 12 Pro y en todos los modelos del iPhone 14 en adelante, aunque Adobe recomienda usarlo con un iPhone 15 Pro o superior. No necesitas tener cuenta de Adobe ni iniciar sesión, lo cual la hace ideal para experimentar sin compromiso. Además, es compatible con fotos RAW y JPEG. Y si usas Lightroom, puedes enviar tus fotos directamente desde Indigo para editarlas. Pero no todo es perfecto: Pierdes funciones nativas como Live Photos, modo retrato y estilos fotográficos. El cerebro detrás de Indigo es Marc Levoy, quien dejó Google en 2020 para unirse a Adobe con el objetivo de crear una “app de cámara universal”. Junto a él está Florian Kainz, también ex Google y experto en procesamiento de imagen. Ambos fueron clave en los avances del Pixel, que convirtió a la cámara de Google en un referente. Con Indigo buscan ir más allá: crear fotos que parezcan tomadas con cámaras réflex, sin dejar de aprovechar el poder del iPhone. Uno de sus logros técnicos es que el obturador no tiene retardo: la app ya está grabando imágenes RAW mientras estás encuadrando, así que cuando presionas el botón, ya tiene lista la mejor toma. Ideal para capturar momentos exactos como un perro en movimiento o una pelota entrando en el arco. Muchos fotógrafos no confían en las cámaras del celular porque el software tiende a exagerar la imagen. Colores saturados, sombras aplastadas, reflejos molestos y detalles perdidos por la compresión digital. Apple ha hecho mejoras, pero su app de cámara sigue sin ofrecer controles manuales completos. Tampoco permite disparar con exposición prolongada real ni ajustar el número de imágenes por ráfaga. Project Indigo responde a esa necesidad con un enfoque híbrido: mantiene la sencillez del teléfono, pero entrega resultados dignos de una cámara avanzada. En lugar de aplicar filtros o IA que "inventan" detalles, Indigo capta datos reales desde el sensor y los combina para mejorar la nitidez. Incluso permite usar el movimiento natural de la mano como técnica para captar más perspectiva y obtener fotos más detalladas, algo conocido como "multi-frame super-resolution". Project Indigo ya puede descargarse gratis y viene con funciones únicas que la distinguen de otras apps. Por ejemplo, permite hacer fotos en condiciones de luz muy baja sin necesidad de trípode, gracias a la combinación de 32 cuadros tomados en segundos. También incluye un botón dedicado para fotos de larga exposición, que simula el efecto de obturación prolongada en cámaras réflex: perfecto para capturar cascadas, luces en movimiento o trazos de luz en la noche. Otra función prometedora es la eliminación de reflejos con IA, ideal para fotos detrás de vitrinas o cristales. Y si te gusta editar, las fotos en RAW pueden abrirse directamente en Lightroom con compatibilidad total con los perfiles de color de Adobe. Aunque aún no tiene modo retrato ni video, ya se están desarrollando esas funciones, junto con bracketing de exposición y enfoque. La app también actúa como plataforma de pruebas para futuras funciones de Photoshop y Lightroom. Además, Adobe ya confirmó que la versión para Android “va a llegar seguro”. Las imágenes tomadas con Indigo pueden verse en calidad HDR en una galería oficial alojada en Adobe Lightroom. Eso sí: la visualización óptima requiere una pantalla compatible y usar Google Chrome. Safari puede no mostrar correctamente los colores ni los brillos. Otra novedad técnica es el demosaico avanzado, que reconstruye los colores a partir del sensor de forma más precisa que otras apps. Indigo también ajusta el tono y el color basándose en lo que hay en la escena: sabe cuándo hay una persona en primer plano o cuándo estás fotografiando un cielo al atardecer. En las pruebas realizadas por medios como PetaPixel y CNET, se destacó que el zoom digital de Indigo supera al del iPhone al no inventar píxeles, sino construir la imagen con varias tomas desde ángulos apenas distintos. Además, la app permite ajustar la cantidad de cuadros por ráfaga, algo que no se ve en otras herramientas similares. Según Adobe, este es solo el comienzo: planean integrar más funciones creativas y fortalecer la app con la ayuda de los comentarios de quienes ya están probándola. Project Indigo es una app gratuita de Adobe que convierte tu iPhone en una cámara avanzada con controles manuales, procesamiento inteligente y compatibilidad con RAW. Está pensada para quienes aman la fotografía, pero también para curiosos que quieran probar una nueva forma de tomar fotos. Descárgala, prueba sus funciones y cuéntanos tu experiencia. Y sigue el pódcast Flash Diario en Spotify.Bibliografía
Google integra su IA más potente a Shorts para crear videos y sonidos por texto Por Félix Riaño @LocutorCo YouTube va a integrar la inteligencia artificial Veo 3 de Google en su formato Shorts. Los creadores van a poder generar videos completos, con imagen y sonido, usando solo texto. ¿Qué pasaría si pudieras crear un video con solo escribir una frase? Eso es justo lo que promete Veo 3, la herramienta de inteligencia artificial más avanzada de Google. Esta nueva función se va a integrar en YouTube Shorts, el formato de video corto que recibe más de 200.000 millones de vistas al día. El anuncio lo hizo el propio CEO de YouTube, Neal Mohan, durante el festival Cannes Lions 2025. Pero hay muchas preguntas: ¿cuánto costará? ¿Habrá deepfakes? ¿Qué pensarán los creadores humanos? ¿Y si el video que ves no lo hizo nadie? YouTube quiere que cualquiera pueda crear videos, incluso sin cámara ni micrófono. Para eso va a usar la tecnología Veo 3, un sistema que transforma texto en videos con sonido. Esta IA ya fue usada en la función Dream Screen, que generaba fondos por texto, pero ahora llega mejorada. Veo 3 puede crear clips de 8 segundos que parecen filmaciones reales. Eso lo hace ideal para Shorts, que permite videos de hasta 60 segundos. Mohan, el CEO de YouTube, dijo que esto va a liberar la creatividad de los creadores y les va a dar nuevas herramientas para contar historias. El problema es que no todo el mundo está feliz con la idea. Muchos creadores temen que la plataforma se llene de videos generados por máquinas, sin alma, sin humor, sin errores humanos. Algunos ya llaman a esto “la avalancha de contenido basura”. Además, Veo 3 podría usarse para hacer deepfakes, es decir, videos falsos que imitan a personas reales. Por eso, YouTube está trabajando con agencias como CAA y con creadores reconocidos para desarrollar herramientas que protejan la imagen de celebridades y personajes públicos. A esto se suma otra preocupación: actualmente Veo 3 solo está disponible pagando el plan AI Ultra, que cuesta 250 dólares y limita la creación a 125 videos cortos al mes. ¿Valdrá la pena para los creadores pequeños? La llegada de Veo 3 no es solo una promesa tecnológica, también es una estrategia para ganarle la carrera a TikTok e Instagram Reels. Shorts se ha convertido en una prioridad para YouTube, que busca atraer a nuevas audiencias. El formato ha crecido 186 % en el último año. Mohan lo describió como “el nuevo Hollywood de los emprendedores”, y destacó que muchos creadores ya están montando sus propios estudios. Con Veo 3, podrían hacer películas de un minuto desde sus celulares. Por ahora, la función se lanzará en los próximos meses y se espera que YouTube adapte el modelo de IA para que produzca videos verticales en alta calidad. Aunque el acceso será limitado al principio, es probable que YouTube libere herramientas gratuitas o reduzca el precio para atraer más creadores. El modelo Veo 3 fue anunciado por Google en 2023 y ha sido mejorado constantemente. Está diseñado para generar videos de 720p con audio incluido, a partir de indicaciones simples. Aunque en su forma original produce videos horizontales, YouTube estaría adaptándolo para que los Shorts no tengan bordes negros. Además, Veo 3 ya ha sido usado en redes para crear contenido viral como "cómo sería Shakespeare como youtuber" o "Napoleón haciendo vlogs". Este tipo de creatividad puede ser divertida, pero también inquietante. Por eso, YouTube trabaja en regulaciones internas para evitar abusos, y aún no ha confirmado si habrá una versión gratuita de esta tecnología. Muchos esperan que Google encuentre un equilibrio entre accesibilidad, calidad y control ético. YouTube va a integrar la inteligencia artificial Veo 3 en Shorts. ¿Será el fin del contenido humano o el inicio de una nueva era?Sigue el pódcast Flash Diario en Spotify para conocer más historias sobre tecnología, ciencia y creatividad digital. BibliografíaHollywood Reporter Engadget Ars Technica The Verge Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
China ha probado con éxito la cápsula Mengzhou, diseñada para llevar personas a la Luna. El ensayo probó su sistema de escape en caso de emergencia Por Félix Riaño @LocutorCo El martes 17 de junio, China lanzó con éxito una prueba de emergencia de su cápsula Mengzhou, sin tripulación, en el Centro de Lanzamiento de Jiuquan. Esta cápsula será usada en futuras misiones tripuladas a la Luna. La maniobra consistió en simular un accidente desde la plataforma de lanzamiento, para verificar que la cápsula pueda escapar si ocurre una explosión en tierra. En 20 segundos, el sistema de propulsión la elevó, luego soltó el módulo principal y lo dejó caer suavemente con paracaídas y airbags. ¿Por qué este ensayo podría significar que China le gane a Estados Unidos en la carrera lunar? La cápsula Mengzhou, cuyo nombre significa “barco del sueño”, está diseñada para llevar astronautas chinos a la órbita lunar antes del año 2030. La prueba realizada el 17 de junio a las 12:30 del mediodía (hora de China) consistió en una simulación real de emergencia. Sin usar un cohete, se activaron motores sólidos que empujaron la cápsula hacia arriba. A los 20 segundos, se separó de su torre de escape y descendió con tres paracaídas hasta aterrizar con ayuda de un sistema de bolsas de aire. A las 12:32 ya estaba de vuelta en el suelo. Esta fue apenas la segunda vez que China realiza una prueba de escape desde cero metros de altitud. La anterior había sido en 1998, con la cápsula Shenzhou. Pero Mengzhou es diferente: su sistema de seguridad no depende del cohete, sino que está integrado en la cápsula misma. Esto permite responder con rapidez en caso de una falla grave durante el lanzamiento. Este paso era vital para validar el diseño y seguir con las próximas pruebas, que incluirán un ensayo en pleno vuelo, a mayor altitud y presión atmosférica. Aunque China aún está por detrás de la NASA en misiones lunares, esta cápsula nueva parece estar ganando terreno.Estados Unidos recortó el presupuesto para sus misiones lunares. La NASA enfrenta incertidumbre. El presupuesto propuesto por la Casa Blanca para 2026 elimina el cohete SLS y la cápsula Orion después de la misión Artemis 3, prevista para 2027. Mientras tanto, China avanza en el desarrollo de Mengzhou, el cohete Long March 10 y un módulo lunar, que podrían permitirle llegar primero a la Luna en esta nueva era. Mengzhou puede llevar hasta siete astronautas en misiones en órbita baja, o tres hasta la órbita lunar. Es parcialmente reutilizable, y ya fue probada en 2020 con un vuelo suborbital. Su versión lunar pesará unas 26 toneladas. Este sistema ha sido diseñado para cumplir con estándares internacionales y funcionar tanto con estaciones espaciales como en misiones lunares. El cohete Long March 10 tendrá tres etapas de 5 metros de diámetro, con motores de queroseno y oxígeno líquido. Está en construcción en Wenchang, en la isla de Hainan. Las plataformas de lanzamiento ya están siendo instaladas. El sistema completo de la misión lunar incluirá un aterrizador llamado Lanyue y, posiblemente, una combinación con el Long March 5B para pruebas atmosféricas. Según la Oficina de Ingeniería Espacial Tripulada de China (CMSEO), todos estos elementos están siendo desarrollados en paralelo. El objetivo es claro: tener una misión tripulada lista antes del año 2030. China ya probó el diseño de reingreso de Mengzhou a gran velocidad hace cinco años, y ahora se enfoca en demostrar que puede proteger vidas humanas desde el despegue hasta el regreso. China dio un paso firme hacia la Luna con la prueba de emergencia de Mengzhou. ¿Quién ganará esta nueva carrera lunar? Comenta y escucha más en el pódcast Flash Diario.
Tinder lanza Double Date, su nueva función para tener citas dobles. Solo tienes que emparejarte con tu mejor amigo o amiga, y hacer match con otra pareja Por Félix Riaño @LocutorCo Tinder acaba de lanzar una función para quienes no se sienten cómodos yendo solos a una primera cita. Se llama “Double Date” y permite formar pareja con un amigo o amiga, deslizar perfiles de otras duplas y coordinar una salida grupal. Por ahora solo está disponible en Estados Unidos, pero el lanzamiento global será en julio. La idea busca atraer a jóvenes que quieren menos presión y más diversión. Según datos internos de Tinder, el 90 % de quienes ya han usado esta función tienen menos de 29 años. ¿Será esta la nueva manera de tener una primera cita sin nervios? El amor ya no es de dos: ahora puede ser de cuatro La app de citas más usada del mundo acaba de activar una opción para los que prefieren no ir solos a conocer a alguien. Se llama Double Date y funciona así: tú te unes con un amigo o amiga, y juntos forman una dupla. Luego, desde el ícono con dos caritas felices en la parte superior derecha, pueden deslizar perfiles de otras duplas. Si una persona de tu dupla y alguien de la otra dan Like, se arma el match. Y desde ahí, se abre un chat de grupo para coordinar una cita en el mundo real. Es una forma de hacer que el primer encuentro no sea incómodo ni silencioso. Muchas personas se sienten nerviosas ante la idea de tener una cita a solas. ¿Qué me pongo? ¿Qué digo? ¿Y si hay un silencio incómodo? Tinder lo sabe y por eso busca soluciones para hacer más cómodas las citas, sobre todo para mujeres y jóvenes. Double Date viene a sumarse a herramientas como “Share My Date”, que permite compartir con amigos los datos del encuentro, y “Matchmaker”, donde tus seres queridos recomiendan perfiles. Además, en la configuración puedes decidir si quieres que tu amigo o amiga aparezca en tu perfil, y si deseas que Double Date tenga prioridad o no al mostrarte perfiles. La función fue probada durante meses en varios países, y los resultados han sido sorprendentes: las mujeres que usaron Double Date fueron tres veces más propensas a dar Like a una pareja que a una persona sola. Además, los chats entre duplas tienen 35 % más mensajes que los uno a uno. También se ha visto que 15 % de los usuarios que aceptaron una cita doble eran nuevos en Tinder o habían reactivado su cuenta. Esto coincide con el nuevo enfoque del CEO Spencer Rascoff, quien quiere alejar a Tinder de su fama de app para encuentros casuales. Su idea es ofrecer “menos likes, pero mejores matches”. Tinder quiere volverse más útil, más segura y más divertida para los jóvenes. Por eso ha sumado nuevas funciones y herramientas de seguridad. Hoy tiene más de 50 millones de usuarios activos mensuales. Desde la pandemia, ha tenido que adaptarse a nuevas formas de relacionarse, con usuarios que beben menos alcohol, tienen menos sexo y prefieren vínculos más tranquilos. Double Date se lanzó oficialmente en Estados Unidos el 16 de junio de 2025 y estará disponible en el Reino Unido y el resto del mundo desde mediados de julio. La app también está probando funciones pagas como filtros de estatura, una idea polémica pero muy pedida. Tinder lanza citas dobles: ahora puedes invitar a tu mejor amiga y conocer juntos a otra pareja. ¿Quién te acompañaría?Escucha más en Flash Diario en Spotify
Meta lanzó una herramienta para editar videos cortos con inteligencia artificial. Es gratuita, pero por tiempo limitado Por Félix Riaño @LocutorCo Meta acaba de estrenar una función que permite transformar cualquier video corto en algo mucho más llamativo. Basta con subir un clip de hasta 10 segundos, elegir uno de los más de 50 estilos visuales preestablecidos y en segundos aparece la versión editada. Puedes cambiar el fondo, la ropa o incluso el ambiente. Todo sin necesidad de saber editar. Está disponible en más de una docena de países, incluyendo Estados Unidos. Por ahora es gratuita, pero Meta ya avisó que no será para siempre. ¿Es útil para todos o solo un truco visual pasajero? Los resultados pueden ser extraños, aunque muy divertidos. La propuesta de Meta es sencilla y llamativa. Imagínate que grabas un video cualquiera. En tu casa, en la calle, o con tu mascota. Luego entras a la app Meta AI, o al sitio web Meta.AI, o usas la app Edits. Subes tu video y eliges un estilo: cómic antiguo, videojuego, nieve, desierto o hasta un traje de astronauta. La inteligencia artificial lo transforma. Y listo. Puedes compartirlo directamente en Instagram o Facebook. Esta herramienta se apoya en lo que Meta llamó su tecnología Movie Gen, un modelo que desde el año pasado viene generando imágenes, sonidos y videos completos a partir de texto. Pero en esta etapa, lo que puedes hacer es editar tus propios videos con ayuda de plantillas predefinidas. Aunque la promesa suena atractiva, la realidad es un poco distinta. Muchos usuarios han compartido resultados inesperados. Como cactus de colores en medio del jardín. O mascotas con brillos raros. O transformaciones tipo anime que terminan con ojos fluorescentes y labios neón. Por ahora no es posible escribir lo que quieres que haga la inteligencia artificial. Solo se pueden usar los 50 estilos que ya vienen cargados. Además, el tiempo máximo de edición es de 10 segundos. Otro detalle que no todo el mundo considera: al usar la herramienta, estás compartiendo tu video con Meta. La empresa puede usarlo para seguir entrenando sus modelos. Meta ya anunció que más adelante vamos a poder escribir nuestras propias instrucciones, para que la IA edite según lo que le digamos. Pero eso será más adelante. Lo que tenemos hoy es una herramienta pensada para facilitar la creación de contenido visual llamativo, sin necesidad de saber edición. Puede ser útil para creadores, para profesores que quieran hacer algo diferente, o para familias que quieran darle un toque divertido a sus recuerdos. Pero también plantea preguntas: ¿cómo saber si un video fue editado con IA? ¿Cómo evitar que esta herramienta se use para engañar? Por ahora, lo mejor es probarla con precaución y saber que, aunque es entretenida, no todo lo que sale de ahí parece real. Esta nueva herramienta forma parte de una carrera tecnológica en la que están también Google, OpenAI, Runway y muchas más. Pero Meta tiene algo que los demás no: la integración directa con Facebook e Instagram. Eso le da una ventaja, porque no tienes que aprender a usar un nuevo programa. Solo entras, eliges y compartes. Según la empresa, los estilos visuales fueron definidos con ayuda de creadores de contenido que conocen bien qué cosas funcionan mejor en redes. Y aunque aún no está disponible en todo el mundo, en Europa algunas funciones están limitadas por las regulaciones, pero la edición de video con IA ya está activa. Meta te permite editar tus videos como si tuvieras un estudio de cine en el bolsillo. Es gratis, por ahora. Es divertida, aunque imperfecta. Y puede ser útil si sabes lo que estás haciendo. ¿Ya pensaste qué video te gustaría transformar?Escucha más noticias como esta en Flash Diario en Spotify Meta lanza editor de video con IA. Gratuito, creativo y fácil. ¿Ya lo probaste?
¿Y si el universo no comenzó con un Big Bang sino dentro de un agujero negro? Por Félix Riaño @LocutorCo Un nuevo modelo cosmológico sugiere que el universo no nació de una gran explosión, sino de un rebote dentro de un agujero negro. Desde hace casi un siglo, la mayoría de científicos ha creído que el universo comenzó con el Big Bang: una gran explosión desde un punto infinitamente denso. Pero un grupo internacional de físicos, liderado por el profesor Enrique Gaztañaga, plantea que todo lo que conocemos podría estar dentro de un agujero negro. Esta nueva teoría, publicada en la revista Physical Review D, propone que el universo no surgió de la nada, sino de una compresión y rebote de materia dentro de un agujero negro generado por un colapso gravitacional masivo. ¿Podría este modelo reemplazar al Big Bang y explicar los misterios que aún nos desconciertan? El Big Bang podría estar equivocado Un equipo del Instituto de Cosmología y Gravitación de la Universidad de Portsmouth ha propuesto una idea tan audaz como fascinante. Según su modelo, llamado Universo Agujero Negro, el universo habría surgido de una fase de colapso, donde una gran nube de materia se comprimió por la gravedad hasta alcanzar una altísima densidad. Luego, esa materia rebotó hacia afuera, como un resorte comprimido, dando lugar al universo que conocemos. Lo sorprendente es que esta expansión acelerada no necesitaría campos hipotéticos como en la teoría inflacionaria del Big Bang, sino que sería una consecuencia natural del rebote. ¿Y si el borde del universo es un horizonte? La nueva teoría dice que el borde de nuestro universo podría ser el mismo horizonte de eventos de un agujero negro. Es decir, estamos dentro de una región de la cual no puede escapar la luz. Esto explicaría por qué no podemos ver más allá de ciertos límites. Además, abre la posibilidad de que otros agujeros negros contengan sus propios universos internos. Según los autores, esta idea se ajusta mejor a las leyes de la física cuántica, que impiden que la materia se comprima infinitamente. En lugar de una singularidad como proponían Penrose y Hawking, habría un límite cuántico que permite el rebote. El modelo del Big Bang ha tenido dificultades para integrarse con la mecánica cuántica. Las singularidades, como el punto de origen del universo, rompen las reglas conocidas de la física. El nuevo modelo evita este problema al considerar que la compresión de materia tiene un límite, y que en lugar de una explosión desde la nada, el universo surgió de una transformación interna: un rebote. Además, observaciones recientes del telescopio James Webb han mostrado comportamientos inesperados en galaxias tempranas. Por ejemplo, dos tercios de esas galaxias parecen girar en la misma dirección, lo cual sugiere que el universo podría haber nacido girando, como ocurre dentro de un agujero negro. Este nuevo enfoque no solo es compatible con la relatividad general y la mecánica cuántica, sino que también permite hacer predicciones comprobables. Por ejemplo, el satélite ARRAKIHS, desarrollado por la Agencia Espacial Europea con participación del profesor Gaztañaga, podrá observar las zonas exteriores de galaxias para detectar huellas de formación que el modelo del Big Bang no explica. La misión está diseñada para detectar estructuras de brillo extremadamente débil y trazar la historia de la evolución galáctica, lo que podría revelar si venimos de una expansión o de un rebote. Este modelo también puede arrojar luz sobre el origen de los agujeros negros supermasivos, el comportamiento de la materia oscura y otros misterios cósmicos. El modelo Black Hole Universe no es completamente nuevo. En 1972, el físico teórico indio Raj Kumar Pathria ya había sugerido la idea, pero fue ignorada por la comunidad científica. Ahora, con más datos y tecnología como el telescopio James Webb, esta hipótesis cobra fuerza. El equipo de investigación incluye a científicos de España y del Reino Unido, y se apoya en principios tanto de la relatividad como de la cuántica. Este enfoque es parte de una corriente que busca modelos cíclicos del universo, en los cuales cada “fin” es en realidad un nuevo comienzo. La idea de que estamos en el interior de un agujero negro abre nuevas preguntas sobre si el tiempo, el espacio y las leyes físicas son más maleables de lo que pensábamos. Una nueva teoría propone que el universo nació de un rebote dentro de un agujero negro, no de una explosión. ¿Qué opinas? Comenta y escucha más episodios de Flash Diario en Spotify:Flash Diario en Spotify Científicos proponen que el universo nació dentro de un agujero negro, no del Big Bang. Una teoría que desafía todo.
Apple rediseña sus sistemas y añade IA útil: traducción en llamadas, respuestas automáticas y privacidad total sin nube Por Félix Riaño @LocutorCo Apple anunció nuevas funciones de inteligencia artificial en su evento WWDC 2025. Abrió su modelo de lenguaje a desarrolladores, presentó funciones como traducción en llamadas y rediseñó sus sistemas con un estilo llamado “vidrio líquido”.Abrió la semana de la WWDC 2025 con una estrategia cautelosa: mostraron avances en inteligencia artificial sin prometer demasiado. A diferencia de lo que hicieron otras grandes tecnológicas, Apple eligió centrarse en funciones útiles y reales que ya pueden usarse. ¿Qué significa esto? Por ejemplo, ahora Siri podrá ayudarte a identificar un abrigo en una tienda en línea y buscarlo en tus apps favoritas. Además, presentaron un rediseño visual que unifica todos sus sistemas operativos, desde iPhone hasta Apple Watch, con un material nuevo llamado “vidrio líquido”. También presentaron nuevas funciones como traducción en tiempo real de llamadas y un sistema de pantalla que silencia los números desconocidos. ¿Está Apple quedándose atrás en la carrera de la inteligencia artificial, o está siendo más prudente que sus rivales? Apple no busca impresionar con promesas exageradas, sino con cosas que ya funcionan bien Cada año, Apple celebra su conferencia para desarrolladores conocida como WWDC. Allí suelen presentar nuevas versiones de sus sistemas operativos y algunas sorpresas tecnológicas. Este año, el foco estuvo en la inteligencia artificial. Apple reveló que va a permitir que los desarrolladores usen su propio modelo de lenguaje dentro de las apps. ¿Qué quiere decir eso? Que cualquier aplicación en tu iPhone podría usar una IA integrada, sin enviar datos a la nube. Eso ayuda a cuidar la privacidad y hace que la respuesta de la IA sea más rápida. Además, Apple también integrará la tecnología de OpenAI, como ChatGPT, en sus herramientas creativas. Por ejemplo, se podrá generar imágenes con IA directamente en su app “Image Playground”. Aunque estas mejoras parecen útiles, algunos expertos se mostraron escépticos. La IA de Apple funciona directamente en el dispositivo, sin conectarse a los centros de datos más potentes que otras empresas sí usan. Esto hace que sea más privada, pero también más limitada. Su modelo tiene 3 mil millones de parámetros, mientras que modelos más avanzados tienen hasta 10 o 20 veces más. Por eso, no puede hacer tareas complejas como redactar textos largos o analizar grandes cantidades de datos. Además, Apple no ofreció nuevas funciones “impactantes” como las de sus competidores. La reacción del mercado lo reflejó: las acciones de Apple bajaron 1,2 % tras la presentación. ¿Está Apple apostando por la seguridad y privacidad a costa de la innovación? Apple también rediseñó todos sus sistemas operativos con un nuevo estilo visual llamado “vidrio líquido”. Este diseño hace que los botones, menús e iconos se vean más translúcidos, como si fueran hechos de cristal. Cambian de color y forma dependiendo de lo que haya en pantalla. Esto será visible en iOS 26, iPadOS 26, macOS Tahoe 26 y watchOS 26. Por ejemplo, ahora la hora en la pantalla de bloqueo del iPhone se adapta y se coloca detrás del sujeto principal de la foto. Además, hay nuevas funciones como “Call Screening”, que permite que el iPhone conteste llamadas desconocidas y pregunte quién llama, mostrándote una transcripción. También podrás traducir llamadas en tiempo real, incluso si la otra persona no tiene iPhone. Y en Mensajes se añadieron fondos personalizados, encuestas dentro de los chats y filtros para silenciar mensajes de desconocidos. El rediseño visual fue posible gracias a los chips Apple Silicon, que ahora son lo suficientemente potentes para renderizar el “vidrio líquido” en tiempo real. Apple también cambió su sistema de numeración: ahora usará nombres de años para identificar sus sistemas operativos. Así, todos llevarán el número 26 este año. En cuanto a desarrolladores, podrán usar herramientas como SwiftUI, UIKit y AppKit con nuevos controles para adaptarse al estilo líquido. Apple mostró que incluso apps como Safari, FaceTime, Apple Music y Apple Podcasts ya adoptaron esta nueva estética. En paralelo, OpenAI anunció que alcanzó una facturación anual de 10 mil millones de dólares, recordando que la competencia en IA no da tregua. Mientras tanto, Apple busca diferenciarse con integración, diseño y privacidad. Apple presentó avances concretos en inteligencia artificial, centrados en privacidad y utilidad, junto con un diseño visual innovador. ¿Te gustaría usar estos cambios? Comenta y escucha más en el pódcast Flash Diario en Spotify.BibliografíaReuters: Apple opens its AI to developersCNN: Apple WatchOS 26 gets new featuresBloomberg: Everything New Coming to iPhonesApple Newsroom: New software designConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
NASA perdería 41 misiones científicas si se aprueba el presupuesto de Trump La propuesta de Trump reduciría el presupuesto de la NASA un 25 %, eliminando misiones a Marte, Venus, la Tierra y el espacio profundo. Por Félix Riaño @LocutorCo La NASA está a punto de enfrentar el mayor recorte de presupuesto en su historia si se aprueba la propuesta del expresidente Donald Trump para el año fiscal 2026. La medida implicaría una reducción de 24.800 a 18.800 millones de dólares, lo que representa un recorte del 25 %. Eso dejaría a la agencia en su nivel más bajo de financiación desde hace décadas, ya ajustado a inflación. Se cancelarían más de 40 misiones científicas, incluyendo observatorios de asteroides, sondas a Marte y programas de monitoreo climático desde el espacio. ¿Estamos viendo el fin de una era en la exploración espacial estadounidense? Trump también amenaza con romper contratos con SpaceX. El 30 de mayo, la NASA recibió la versión detallada del presupuesto 2026 propuesto por Trump. Desde principios de mayo ya se conocía que se avecinaban tiempos difíciles. La propuesta apunta a recortar casi a la mitad el presupuesto para ciencias espaciales. Misiones emblemáticas como Mars Sample Return, MAVEN, DAVINCI y VERITAS quedarían sin financiación. Incluso los observatorios Voyager, que llevan más de 45 años enviando datos desde los bordes del sistema solar, perderían su presupuesto y quedarían flotando sin dirección. Esta no es solo una decisión económica: es una redefinición del propósito de la agencia, centrado exclusivamente en una carrera por llegar antes a Marte que China. Los recortes afectarían colaboraciones internacionales clave. La misión ExoMars, liderada por la Agencia Espacial Europea y apoyada por la NASA, quedaría huérfana de apoyo estadounidense. También se eliminaría el respaldo a la estación lunar Gateway, poniendo en riesgo la participación europea en futuros viajes a la Luna. Las misiones de observación de la Tierra, fundamentales para monitorear el cambio climático, sufrirían una reducción del 53 %. Incluso se eliminarían misiones ya operativas, como el orbitador MAVEN o el observatorio de rayos X Chandra. El daño va más allá de la ciencia: se perderían miles de empleos entre personal civil y contratistas. Y lo más preocupante: una vez apagados, muchos de estos proyectos no podrán reiniciarse. Algunos senadores republicanos ya están actuando para evitar estos recortes. Desde el comité de Comercio, Espacio y Transporte, liderado por Ted Cruz, se propone devolver miles de millones al presupuesto de la NASA, principalmente para proteger el programa Artemis. Esta defensa, sin embargo, prioriza los vuelos tripulados a la Luna, no las misiones científicas. Se busca prolongar la vida útil del cohete SLS, aunque la Casa Blanca prefiere reemplazarlo con vehículos más baratos como el Starship de SpaceX o el New Glenn de Blue Origin. Pero los desarrollos de esas empresas aún enfrentan fallos técnicos. La tensión entre Trump y Elon Musk también complica el panorama, con amenazas de romper contratos federales con SpaceX. Las misiones que podrían cancelarse incluyen VERITAS y DAVINCI, ambas destinadas a estudiar Venus con gran detalle. OSIRIS-APEX, continuación del exitoso OSIRIS-REx, perdería la oportunidad de estudiar el asteroide Apophis en 2029, cuando pase a solo 32.000 kilómetros de la Tierra. También se recortarían fondos a LISA, un proyecto conjunto con Europa para detectar ondas gravitacionales en el espacio. Y el telescopio Chandra, lanzado en 1999, dejaría de recibir mantenimiento pese a seguir enviando datos valiosos. El presupuesto propuesto justifica estos recortes con el argumento de que los 7 mil millones anuales que NASA destina a ciencia son “insostenibles”. Pero la comunidad científica advierte que se trata de un golpe sin precedentes a décadas de avances y cooperación internacional. Si se aprueba el presupuesto, la NASA dejaría de ser una agencia científica y pasaría a ser solo una agencia de vuelos tripulados. ¿Es ese el camino que queremos para la exploración espacial? Puedes escuchar más en el pódcast Flash Diario en Spotify. Bibliografía The Economist - 4 de junio de 2025Wall Street Journal - 5 de junio de 2025BBC News - 6 de junio de 2025Washington Post - 8 de junio de 2025Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
El nuevo Nothing Phone 3 será más potente, pero su alto precio sorprende a todosNothing presentará su nuevo teléfono insignia el 1 de julio. Usará el chip Snapdragon 8 Gen 3 y tendrá materiales premium. Su precio podría superar los 850 euros, lo que marcaría una gran diferencia con respecto a los modelos anteriores de la marca.Por Félix Riaño @LocutorCoLa empresa británica Nothing ha confirmado la presentación oficial del Nothing Phone 3 para el 1 de julio. Este modelo será el primero en la categoría de gama alta de la marca. Llevará un procesador Snapdragon 8 Gen 3 y ofrecerá materiales de mayor calidad. Aunque aún no conocemos todos los detalles técnicos, se espera que venga en dos versiones: una de 12 GB de RAM y 256 GB de almacenamiento, y otra con 16 GB de RAM y 512 GB. Lo que más ha llamado la atención es su posible precio: entre 799 y 899 dólares en Estados Unidos, lo que se traduce en unos 850 euros en Europa. ¿Perderá Nothing su reputación de marca accesible con esta apuesta?El precio ya no es su mejor carta de presentación.La compañía Nothing, conocida por sus diseños transparentes y su enfoque minimalista, comenzó vendiendo audífonos y luego pasó al mundo de los teléfonos inteligentes. El Nothing Phone (1) y el (2) fueron bien recibidos por ofrecer buenas prestaciones a precios competitivos. Por ejemplo, el Phone (2) comenzó en 599 dólares, con 8 GB de RAM y 128 GB de almacenamiento. Ahora, el nuevo Phone (3) apunta mucho más alto. La interfaz Glyph seguirá presente, aunque podría ser rediseñada. El anuncio se hará a las 19:00, hora de París, con una promesa clara en su mensaje promocional: “Come to Play”, que sugiere un rendimiento optimizado para videojuegos.Todo suena bien, pero el cambio de estrategia preocupa a muchos seguidores de la marca. Nothing había conquistado al público con sus precios bajos y su estética llamativa. Ahora, al subir el precio por encima de los 800 euros, muchos se preguntan si vale la pena el cambio. ¿Por qué una marca que apostaba por democratizar la tecnología quiere competir ahora con los gigantes como Samsung, Apple o OnePlus? El aumento de precio no es pequeño. Comparado con la generación anterior, el sobrecosto puede llegar a los 100 euros por configuración equivalente. Además, el teléfono aún no contará con el procesador Snapdragon 8 Elite, reservado para la gama más alta.La decisión de subir el precio podría tener un sentido estratégico: Nothing busca posicionarse como marca aspiracional. Carl Pei, su fundador, ha dicho que el objetivo es ofrecer una experiencia premium sin llegar a los precios de los teléfonos de más de 1.000 euros. Si bien el Phone 3 será más caro, aún podría ofrecer un valor competitivo frente a rivales con características similares. Por ejemplo, el OnePlus 13 con Snapdragon 8 Elite cuesta 999 dólares. Si el Phone 3 se queda en los 799, puede verse como una alternativa más económica dentro del segmento de gama alta. Todo dependerá de cuántas funciones nuevas lleguen con Nothing OS y si el diseño sigue siendo igual de atractivo.Mientras tanto, el modelo más económico, el Nothing Phone 3a, sigue ganando atención. En Amazon, se ofrece por 289 euros, con pantalla AMOLED de 6,77 pulgadas, procesador Snapdragon 7s Gen 3 y cámara principal de 50 megapíxeles. Su diseño con carcasa traslúcida y sistema Glyph lo hacen reconocible. Tiene buena autonomía y está enfocado en el uso diario. Recientemente ha recibido una valoración de 4,5 sobre 5, y se ha vendido más de 200 veces solo en el último mes. A su vez, se ha filtrado el precio del primer auricular over-ear de Nothing, que costará unos 300 euros. Competirá con modelos de Bose, Sony y Apple, prometiendo buena calidad de sonido y diseño elegante.El Nothing Phone 3 será más caro que nunca, pero también más potente. ¿Vale la pena? Vamos a ver su rendimiento tras el lanzamiento. Escucha más análisis en Flash Diario.
El nuevo Mario Kart tiene mundo abierto, clima, videochat y 24 personajes en una sola carrera Por Félix Riaño @LocutorCo Mario Kart World transforma por completo el clásico de carreras de Nintendo. Es el juego estrella de la nueva Switch 2, con un mundo interconectado, carreras de 24 jugadores y misiones que combinan acción, exploración y caos. Por primera vez en la historia de Mario Kart, los jugadores van a recorrer un mundo entero sin pantallas de carga, sin menú de pistas separadas y con una sola gran región conectada por caminos y rutas temáticas. Mario Kart World para la nueva consola Nintendo Switch 2 es mucho más que una secuela: es una reinvención profunda de la franquicia, que ahora incluye exploración libre, clima dinámico, videochat, nuevas técnicas de salto, música en vivo, y carreras con hasta 24 personajes al mismo tiempo. Todo esto llega como el título estrella con el que Nintendo lanza la Switch 2. ¿Puede este nuevo Mario Kart estar a la altura de la historia que lo precede? ¿O es demasiado arriesgado cambiar tanto de golpe? Algunos jugadores aún dudan del modo de exploración libre. Nintendo lanzó su nueva consola Switch 2 y, con ella, el esperado Mario Kart World. Desde el primer anuncio, el equipo de desarrollo explicó que esta versión iba a tener dos cambios enormes: duplicar el número de corredores en cada carrera y rediseñar el mundo como una sola gran región interconectada. Eso obligó a construir el juego desde cero. La idea era tan ambiciosa que no fue posible desarrollarla en la consola anterior. Ahora, con la Switch 2, por fin se hace realidad. A diferencia de otros juegos de la saga, donde cada pista es independiente, aquí todas las rutas forman parte de un mismo mapa. Se puede recorrer libremente en el modo Free Roam, con caminos que atraviesan castillos, selvas, ciudades y desiertos. A pesar de las grandes expectativas, no todo el mundo está convencido de que el modo Free Roam funcione como se esperaba. Algunos periodistas que ya lo probaron afirman que la exploración fuera de las carreras se vuelve lenta cuando el terreno cambia a pasto o arena. También dicen que los coleccionables, como las medallas de Peach y los paneles de bloques, no son tan emocionantes de encontrar como en otros juegos de Nintendo. Las misiones P Switch están repartidas por todo el mapa, y algunas requieren habilidades nuevas como saltos cargados o volar por el aire. Aunque la dificultad de estas misiones sorprende, hay quienes sienten que el mapa no tiene suficiente contenido para justificar tantas horas de recorrido. Más allá de las dudas sobre la exploración, el corazón de Mario Kart Worldsigue siendo la competencia. El nuevo modo Knockout Tour es una carrera en seis partes donde los últimos cuatro corredores son eliminados en cada tramo. Este formato, con 24 jugadores en simultáneo, exige una estrategia constante y aprovecha al máximo las rutas conectadas. Los objetos clásicos siguen presentes, pero ahora se suman técnicas como el Charge Jump, que permite saltar y deslizarse por barandas. Las pistas, tanto nuevas como reimaginadas, están diseñadas para ofrecer atajos, caminos alternos y muchas sorpresas. Desde Shy Guy Bazaar hasta las Great ? Block Ruins, cada trayecto combina nostalgia y creatividad. Las carreras siguen siendo el centro del juego, y eso tranquiliza a quienes temían perder la esencia de Mario Kart. El juego cuesta 80 dólares, siendo el primero de Nintendo con ese precio desde la época del Nintendo 64. Pero ese valor incluye muchas novedades. Hay más de 40 personajes jugables, entre ellos figuras inesperadas como la vaca Cow, que antes solo aparecía como obstáculo. También se integra un sistema de videochat con globos flotantes que muestran la cara del jugador durante la carrera. La música, tocada por una banda en vivo, cambia según la zona del mapa, el clima o la hora del día. Hay modos clásicos como Grand Prix, batalla de globos, recolección de monedas y contrarreloj. Además, la Switch 2 permite conectar cámaras USB para mostrar el rostro del jugador, algo que busca mantener el espíritu familiar del juego. Kosuke Yabuki, productor del título, dijo que pensaron en cada detalle para que las familias sigan disfrutando juntas, como lo han hecho durante décadas. Mario Kart World llega con un mapa interconectado, nuevas técnicas, carreras emocionantes y mucha música. Si te gusta la saga, este puede ser tu nuevo favorito. Escucha más en Flash Diario en Spotify.BibliografíaThe VergeIGN Rolling Stone The Washington Post Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
Microsoft Bing ya permite crear videos con inteligencia artificial desde texto, usando el modelo Sora de OpenAI, sin pagar Por Félix Riaño @LocutorCo Microsoft sorprendió al anunciar que Sora, su avanzada inteligencia artificial generadora de video, ya está disponible gratis a través de la app móvil de Bing. Se trata de una función llamada Bing Video Creator que convierte descripciones escritas en pequeños videos de cinco segundos. ¿Por qué es tan relevante? Porque hasta ahora Sora solo estaba disponible para usuarios de pago de ChatGPT Plus. Y ahora, cualquiera puede probarlo sin costo en su celular. Esta decisión marca un giro importante en la forma como se accede a la creación de videos con IA. ¿Qué implicaciones tendrá esta apertura para la creatividad digital y la competencia con Google? Sora aún no está disponible en Copilot ni en computadorasDesde el lunes 2 de junio de 2025, cualquier persona que tenga una cuenta de Microsoft puede abrir la app de Bing en su celular y comenzar a crear videos con solo escribir lo que quiere ver. El sistema permite hacer 10 videos gratuitos de cinco segundos. Después de eso, se pueden usar puntos de Microsoft Rewards para seguir creando. Cada video adicional cuesta 100 puntos, que se consiguen, por ejemplo, buscando en Bing o comprando en la tienda de Microsoft. Aunque el sistema aún no permite elegir la duración del video ni cambiar el formato vertical, Microsoft promete que pronto se podrá usar en formato horizontal. La calidad de los videos generados no siempre es alta. Aunque Sora fue lanzado con gran expectativa por su realismo, hoy enfrenta competencia fuerte. Herramientas como Google Veo, Runway, Luma o MiniMax están generando clips más largos, con mejores detalles y en menos tiempo. Por eso, al probar el generador de Bing con Sora, muchos usuarios reportan que los videos tardan horas en estar listos, incluso en modo rápido. Además, solo se pueden crear tres videos en cola a la vez y están limitados a cinco segundos. Esto puede decepcionar a quienes esperaban un acceso completo a Sora. ¿Está Microsoft haciendo una jugada arriesgada al ofrecer solo una parte de las capacidades del modelo? Aunque tiene limitaciones, Bing Video Creator representa una apuesta clara por democratizar la creatividad con inteligencia artificial. Microsoft lo presenta como una forma divertida y útil de experimentar con ideas visuales, y no solo como una herramienta técnica. Por ejemplo, se pueden escribir descripciones como: “Un colibrí a cámara lenta batiendo las alas” o “Un astronauta diminuto explorando un planeta de hongos gigantes”. En segundos (o minutos), la app genera un video con esos elementos. Estos videos pueden compartirse fácilmente en redes como TikTok, Instagram o por mensaje directo. Además, están protegidos por estándares de contenido C2PA, lo que permite identificar si fueron creados por inteligencia artificial. La app está disponible para iOS y Android, y pronto llegará a computadoras y al buscador Bing Copilot. Sora fue presentado en diciembre de 2024 y prometía videos de hasta 60 segundos. Sin embargo, hasta ahora no se ha liberado públicamente esa capacidad completa. El modelo está diseñado por OpenAI, que tiene una alianza estratégica con Microsoft, lo que le ha permitido integrarlo a productos como Copilot o Bing Chat. La versión gratuita de Sora en Bing es una muestra del enfoque de Microsoft por llegar a más usuarios con funciones creativas. Además, Microsoft ha confirmado que este tipo de herramientas también pueden tener aplicaciones empresariales: desde crear material de capacitación interna hasta generar videos para explicar proyectos complejos de forma visual. Aunque todavía estamos en las primeras etapas, se abre un camino prometedor para incorporar este tipo de generadores de video a la vida diaria, la educación y los negocios. Bing Video Creator ya está disponible gratis y permite usar Sora, la IA de OpenAI, para crear videos desde texto. Prueba esta nueva función y cuéntanos qué video harías tú. Escucha más noticias como esta en nuestro pódcast Flash Diario.
Starship falló de nuevo: no abrió su compuerta, giró sin control y se desintegró sin probar su escudo térmico
El 31 de mayo de 2025, la Agencia Espacial Europea transmitirá el famoso vals El Danubio azul hacia la nave Voyager 1 Por Félix Riaño @LocutorCo A 24 mil millones de kilómetros de la Tierra viaja Voyager 1, la sonda espacial más lejana de la humanidad. Aunque no puede responder, será el destinatario simbólico de un concierto único: El Danubio azul, compuesto hace dos siglos por Johann Strauss II y famoso por acompañar una escena de ballet espacial en la película 2001: Odisea del espacio, será transmitido desde España como homenaje. ¿Puede una pieza musical corregir un “error cósmico”? Cuando la NASA lanzó las sondas Voyager en 1977, incluyó un disco dorado con saludos en múltiples idiomas, sonidos de la Tierra y una selección musical global. Aunque contenía a Bach, Mozart, Beethoven y Chuck Berry, el vals de Strauss no fue incluido. Muchos lo vieron como una omisión extraña, especialmente por su fama intergaláctica gracias a 2001: Odisea del espacio, donde suena mientras una nave espacial se acopla lentamente a una estación orbital, como si flotara en un escenario celestial. La omisión del vals en el disco dorado fue justificada por criterios de diversidad cultural y purismo ideológico. Los encargados del comité liderado por Carl Sagan optaron por incluir ejemplos folclóricos y modernos poco conocidos, dejando fuera una de las piezas más populares del repertorio clásico europeo. El vals se volvió tan emblemático en el cine que muchos lo consideran el himno no oficial del espacio, pero se quedó en la Tierra… hasta ahora. El sábado 31 de mayo de 2025, a las 20:30 CET, la Orquesta Sinfónica de Viena tocará El Danubio azul desde el Museo de Artes Aplicadas. ESA usará su antena DSA 2, de 35 metros, en Cebreros, España, para enviar la señal a Voyager 1. La transmisión viajará a 1.079 millones de kilómetros por hora, pasando por la Luna en 1,5 segundos, Marte en 4,5 minutos, Júpiter en 37 minutos y Neptuno en 4 horas. Llegará hasta la posición de Voyager 1 en 23 horas. Probablemente no. Aunque el haz de radio será dirigido con precisión, la antena de Voyager 1, construida en los años 70, no está diseñada para recibir audio con el formato actual. Tampoco tiene la capacidad para interpretar señales tan rápidas ni filtrar el ruido interestelar. Es decir, la transmisión será más simbólica que funcional. Pero eso no le quita su valor: el mensaje viajará hacia las estrellas, apuntando al sistema estelar AC+79 3888, a 17 años luz de distancia. La Orquesta Sinfónica de Viena ensayó con rigor para evitar fallos técnicos. Aunque habrá un concierto en vivo, la señal transmitida será de una grabación de ensayo hecha la noche anterior. Este evento celebra múltiples aniversarios: los 200 años del nacimiento de Johann Strauss II, los 50 de la ESA, los 20 de la antena DSA 2 y los 125 de la orquesta vienesa. La iniciativa busca hacer justicia poética, llevando el vals más famoso del mundo hasta un oyente que no podrá escucharlo, pero que representa la esperanza de encontrar vida o, al menos, memoria en las estrellas. No es la primera vez que la música viaja al cosmos. En 2008, la NASA envió la canción Across the Universe de The Beatles. En 2012, el tema Reach for the Stars de will.i.am fue transmitido desde un rover en Marte hacia la Tierra. Y en 2024, The Rain de Missy Elliott fue enviada rumbo a Venus. Además, los astronautas de misiones tripuladas han recibido música desde la Tierra desde los años 60. Lo que diferencia este evento es su conexión artística con la historia del cine y con una nave que literalmente salió del sistema solar. Strauss no viajó en el disco dorado, pero ahora su vals flota en dirección al espacio interestelar. ¿Crees que hay alguien o algo allá afuera que podría escucharlo? Comparte tu opinión y escucha más historias así en el pódcast Flash Diario:Flash Diario en Spotify
Google estrena AI Mode y reinventa las búsquedas en internet, presenta gafas inteligentes y agentes que compran solos: Por Félix Riaño @LocutorCo Buscar en la web va a cambiar más de lo que imaginamos. AI Mode ya aparece en Estados Unidos como una pestaña dentro del cuadro de Google y pronto va a llegar a más países. La función conversa como una experta, divide preguntas en partes pequeñas y responde en voz clara. Google también presentó unas nuevas gafas inteligentes desarrolladas junto a Warby Parker y Gentle Monster, que traducen en vivo, guían en la calle y hasta ayudan a hacer compras sin usar las manos. Todo funciona con Gemini 2.5, la inteligencia que ya procesa quinientos billones de instrucciones por mes. El reto ahora es entender si esto nos va a facilitar la vida o si, por el contrario, nos deja con menos control. ¿Cómo nos va a afectar a quienes hablamos español y usamos Google todos los días para trabajar, estudiar o simplemente encontrar el mejor lugar donde comer? Menos clics en las páginas web pueden afectar miles de empleos. Imagina que escribes en Google: “restaurantes abiertos cerca de mí con buena comida y parqueadero fácil”. Con AI Mode, no ves la lista tradicional de enlaces, sino una conversación. La IA te pregunta si prefieres algo rápido o para sentarte a comer tranquilo, y si quieres comida colombiana, mexicana o italiana. Toma en cuenta tus búsquedas anteriores, los lugares donde has estado con Google Maps y, si diste permiso, hasta tus reservas pasadas en Gmail. Luego arma una respuesta con dos o tres opciones: muestra fotos del lugar, tiempo estimado para llegar, si hay mesas disponibles, precios en tu moneda y comentarios recientes. Todo eso sin salir de la página de resultados. Liz Reid, la jefa de búsqueda de Google, dice que AI Overviews, el sistema que muestra estos resúmenes automáticos, ya se usa en más de cuarenta idiomas y en más de doscientos países. Son más de mil quinientos millones de personas cada mes. Pero tanta eficiencia trae consecuencias. Editores de medios en Bogotá, Lima o Buenos Aires temen que el lector ya no llegue a su página. Si la IA responde todo en el primer pantallazo, ¿quién va a leer el artículo completo? Y si nadie entra, nadie ve la publicidad. Eso pone en riesgo los ingresos de medios digitales pequeños y también los empleos de periodistas. Lo mismo pasa con pequeños negocios. Si no tienen su menú bien organizado en línea o no aparecen con datos claros, es probable que la IA ni siquiera los muestre. Además, AI Mode pronto va a usar, si el usuario lo permite, datos personales como correos en Gmail o eventos en el calendario. Con eso puede sugerir restaurantes antes de una reunión o mostrar rutas al aeropuerto según tu vuelo. Todo suena útil, pero los defensores de la privacidad ya están preocupados: ¿dónde queda el límite? ¿Quién decide qué datos se usan y cuándo? Google dice que quiere mantener el equilibrio. AI Mode incluye controles de privacidad para pausar personalización, borrar historial y revisar qué información se está usando. Además, muestra enlaces directos a las fuentes, para que el usuario pueda leer más si quiere. También presentó Deep Search, una función que lanza cientos de búsquedas internas para armar informes completos. Ideal para estudiantes o periodistas que necesitan contexto rápido. Las nuevas gafas Android XR también hacen parte de esta transformación. Son cómodas, modernas y capaces de traducir en tiempo real, tomar fotos y mostrar direcciones sin usar las manos. Sergey Brin, cofundador de Google, confesó que cometió muchos errores con las primeras Google Glass, pero esta vez la apuesta va en serio. Google va a invertir ciento cincuenta millones de dólares en Warby Parker para lanzar modelos con y sin fórmula óptica a partir de 2026. Y la idea no es competir con celulares, sino complementarlos. Las gafas funcionan junto al teléfono y permiten interactuar con la IA en cualquier momento. Gemini ya tiene más de cuatrocientos millones de usuarios activos. Google dice que con AI Mode y las nuevas gafas, la búsqueda va a pasar de ser un acto puntual a un acompañamiento constante. Por ejemplo, con solo apuntar la cámara del celular, puedes preguntar si una batería es compatible con tu dispositivo o qué tipo de tornillo necesitas. Gemini también puede comprar entradas para eventos, hacer reservaciones en restaurantes o monitorear precios hasta que bajen. Todo esto es opcional, pero ya se está probando con socios como Ticketmaster, Resy y Google Pay. En América Latina, empresas pequeñas pueden prepararse optimizando su presencia en línea con datos claros: ubicación, horario, precios y fotos de buena calidad. Mientras tanto, puedes explorar estas funciones descargando la app de Google y activando la opción de AI Mode, si estás en Estados Unidos. Para conocer más sobre el pasado, el presente y el futuro de las gafas inteligentes, escucha el episodio especial de El Siglo 21 es Hoy sobre las Gafas Google. AI Mode convierte la búsqueda en conversación, y Google ahora quiere estar presente incluso fuera del celular. ¿Te ayuda o te preocupa? Comparte tu opinión y escucha este episodio de Flash Diario y el de Gafas Google en El Siglo 21 es Hoy. Síguelo en Spotify aquí: Flash Diario en Spotifyciona o te preocupa?Separador
Acer FreeSense Ring, un anillo inteligente que presentó Acer en Computex Taipei 2025. Mide ritmo cardíaco, variabilidad del pulso, saturación de oxígeno y fases de sueño. Fabricado en titanio ultraligero, sin suscripciones.Por Félix Riaño @LocutorCo Acer FreeSense Ring monitoriza el pulso, oxígeno y sueño sin suscripción con IA en anillo de titanio ultraligero. Computex es la feria tecnológica más grande de Asia, que se celebra cada año en Taipéi. En su edición 2025, Acer presentó el FreeSense Ring, un anillo inteligente de titanio que pesa entre dos y tres gramos. Usa sensores ópticos con luces verdes y rojas para medir el ritmo cardíaco, la variabilidad del pulso, los niveles de oxígeno en sangre y la calidad del sueño. La información se transmite por Bluetooth de baja energía a una aplicación móvil que usa inteligencia artificial para generar gráficos y recomendaciones de actividad y descanso. Cuenta con certificación IP68, lo que permite usarlo en ducha o natación recreativa, y estará disponible en tallas del siete al trece y en acabados negro brillante y oro rosa mate. Sin tarifas mensuales, pero con fecha de lanzamiento y precio pendiente. Imagina llevar un aro de titanio en tu dedo que pesa menos que una moneda y no nota al tacto. Ese aro es el FreeSense Ring de Acer. Dentro, luces verdes y rojas realizan mediciones ópticas de tu pulso y del flujo sanguíneo. El anillo captura datos sobre tu ritmo cardíaco minuto a minuto, calcula la variabilidad del pulso para evaluar recuperación y bienestar, y mide la saturación de oxígeno en sangre. Durante la noche, analiza las fases de sueño ligero, profundo y REM. Toda la información se envía por Bluetooth de bajo consumo a la app de Acer, donde la inteligencia artificial traduce esos datos en gráficos claros y sugerencias simples para normalizar tu rutina de sueño y actividad diaria, sin cargos ni suscripciones adicionales. El mercado de dispositivos para monitoreo personal de salud está cada vez más competido. Marcas consolidadas como Oura y Samsung dominan la categoría de anillos inteligentes. El FreeSense Ring de Acer llega como una alternativa sin tarifa mensual, pero enfrenta desafíos. Primero, no se ha anunciado un precio definitivo ni una fecha exacta de lanzamiento, lo que genera incertidumbre entre compradores interesados. Segundo, las tallas del anillo abarcan del siete al trece, pero elegir la medida adecuada en línea puede complicar la experiencia de compra. Tercero, la duración de la batería se sitúa entre cinco y siete días, una cifra sólida pero inferior a algunos competidores que ofrecen hasta diez días. Finalmente, aunque la certificación IP68 garantiza resistencia al agua y al polvo, los usuarios profesionales de deportes extremos pueden requerir pruebas de durabilidad adicionales. Estas incógnitas pueden impactar en la adopción temprana del FreeSense Ring, pese a sus ventajas tecnológicas. Acer se posiciona con el FreeSense Ring como un jugador novedoso en el campo de los wearables de salud. Su propuesta de valor radica en un diseño ultraligero de aleación de titanio y en la ausencia de una suscripción mensual: todo el análisis de datos y las recomendaciones se despliegan en la aplicación móvil sin coste adicional. La certificación IP68 permite usarlo en la ducha o nadar en la piscina, sin temor a dañarlo. La disponibilidad en tallas del siete al trece y en dos acabados estéticos —negro brillante y oro rosa mate— amplia su atractivo para usuarios de diferentes edades y estilos. La aplicación acompaña cada métrica con gráficos intuitivos y sugerencias de descanso o actividad, apoyadas por inteligencia artificial desarrollada por Acer. Aunque queda pendiente conocer el precio y la fecha de venta, la presentación en Computex sitúa al FreeSense Ring en el radar de consumidores interesados en tecnología de punta para el cuidado personal. Si Acer cumple con un lanzamiento cercano a los 300 dólares, este anillo tiene potencial para convertirse en una opción popular entre quienes buscan un monitoreo discreto y completo de su salud diaria. El FreeSense Ring forma parte de la división Acer Gear, responsable de productos innovadores más allá de computadoras tradicionales. En Computex 2025, Acer Gear también reveló los AI TransBuds, auriculares inalámbricos capaces de realizar traducción de voz en tiempo real en hasta quince idiomas. Estos auriculares y el anillo comparten un estuche de carga magnética con puerto USB-C, que completa una carga en aproximadamente una hora. El anillo, certificado con IP68, soporta polvo y sumersiones de hasta cincuenta metros, apto para natación recreativa. Está construido en titanio grado 5, material empleado en implantes médicos por su excelente relación resistencia-peso de 280 MPa por gramo. Con un peso de solo dos a tres gramos, se siente casi imperceptible. La app de Acer, compatible con Android 11 y versiones superiores, e iOS 15 y posteriores, procesa los datos sin enviar información a servidores externos, garantizando privacidad. FreeSense Ring ofrece monitoreo integral de salud sin suscripciones ni costes ocultos. Con sensores avanzados, diseño ultraligero de titanio e integración Bluetooth en una app con IA, promete transformar tu rutina de descanso y actividad. Pese a precio y lanzamiento pendientes, su debut en Computex Taipei 2025 lo posiciona como una opción atractiva en wearables de salud.
Sony ha lanzado sus nuevos audífonos WH-1000XM6, prometiendo mejor calidad de sonido y cancelación de ruido avanzada. Pero, ¿podrían estos audífonos estar dañando nuestra salud auditiva? ¿Qué efectos pueden tener en el cerebro?Por Félix Riaño @LocutorCo Sony ha presentado sus nuevos audífonos WH-1000XM6, una evolución en su popular serie de auriculares con cancelación de ruido. Estos dispositivos, que cuestan 450 dólares, prometen una experiencia de sonido inmersiva gracias a su nuevo procesador QN3, que es siete veces más rápido que su versión anterior.Con 12 micrófonos para una cancelación de ruido precisa y tecnología de optimización automática, los WH-1000XM6 buscan destacarse en el mercado de audífonos premium. Pero, aunque la tecnología promete una experiencia auditiva envolvente, hay un problema que muchos pasan por alto: el uso prolongado de audífonos con cancelación de ruido ha sido vinculado a problemas de salud auditiva, como el Trastorno de Procesamiento Auditivo (APD).Audiologistas en el Reino Unido advierten que estos dispositivos podrían estar afectando la capacidad del cerebro para procesar sonidos. ¿Estamos sacrificando nuestra salud por una mejor experiencia de sonido? Pero, ¿cómo funciona realmente la cancelación de ruido y a qué precio? Los Sony WH-1000XM6 son la nueva apuesta de la marca para dominar el mercado de audífonos con cancelación de ruido. Equipados con un procesador QN3 siete veces más rápido que el QN1 del modelo anterior, estos audífonos utilizan 12 micrófonos para detectar y eliminar sonidos no deseados. Esto se logra mediante un proceso llamado cancelación de ruido activa, una tecnología que no es exclusiva de Sony, sino que también utilizan marcas como Bose, Apple y Sonos.La cancelación de ruido funciona gracias a ondas sonoras inversas.Imagina que el sonido es una onda en el agua. Si tienes una ola hacia arriba y creas otra igual pero hacia abajo, ambas se anulan. Los audífonos detectan el ruido externo con sus micrófonos y generan una onda opuesta que lo cancela. Esto permite a los usuarios escuchar música o llamadas en paz, incluso en ambientes ruidosos como aviones, oficinas o calles concurridas. Pero la competencia no se queda atrás. Los Sonos Ace, que inicialmente costaban 499 dólares, ahora están disponibles por 349 dólares en Amazon. Estos audífonos también cuentan con cancelación de ruido avanzada, un diseño cómodo y una función llamada TV Audio Swap, que permite transferir el sonido del televisor directamente a los audífonos. Esto los convierte en una opción atractiva para quienes buscan disfrutar de películas y series sin molestar a otros. A pesar de toda esta tecnología, el uso prolongado de audífonos con cancelación de ruido puede tener consecuencias para la salud auditiva. Según el NHS del Reino Unido, cada vez más jóvenes son diagnosticados con Trastorno de Procesamiento Auditivo, también conocido como APD. Este problema dificulta que el cerebro interprete correctamente los sonidos, incluso cuando el oído funciona perfectamente.El problema está en cómo el cerebro se adapta a un entorno artificial. Al usar audífonos con cancelación de ruido durante largos periodos, el cerebro pierde la práctica de filtrar sonidos y priorizar voces. Esto se traduce en dificultades para comprender conversaciones en ambientes ruidosos, reconocer voces familiares o identificar el origen de los sonidos.La doctora Claire Benton, de la Academia Británica de Audiología, advierte que el uso prolongado de estos dispositivos crea una “realidad falsa”, donde el usuario solo escucha lo que quiere, pero no entrena su cerebro para discriminar sonidos. Además, estudios han mostrado que el aislamiento acústico constante puede aumentar la ansiedad en ambientes ruidosos, como conciertos, restaurantes o calles concurridas. Para reducir los riesgos, los especialistas recomiendan limitar el tiempo de uso de audífonos con cancelación de ruido y utilizar el modo de transparencia, que permite escuchar algunos sonidos del entorno. Esto mantiene el cerebro entrenado para discriminar sonidos importantes. Además, es útil practicar ejercicios auditivos que estimulen la capacidad de escucha activa, como participar en conversaciones en ambientes variados sin audífonos.Los Sony WH-1000XM6 destacan por su calidad de sonido y tecnología avanzada, pero deben usarse de manera responsable. Si estás buscando audífonos con excelente conectividad y experiencia de sonido para entretenimiento en casa, los Sonos Ace son una opción interesante gracias a su función TV Audio Swap, que permite transferir el audio del televisor a los audífonos. Pero, al igual que con los Sony, es fundamental recordar que la salud auditiva debe ser una prioridad.Para quienes buscan la máxima calidad de sonido, los Bose QuietComfort Ultra y los Apple AirPods Max son otras opciones a considerar, pero también comparten el mismo riesgo si se usan en exceso. La clave es disfrutar de la tecnología sin comprometer tu salud. Los audífonos Sony WH-1000XM6 tienen una batería que dura 30 horas con cancelación de ruido activa y 40 horas sin ella. Una carga rápida de tres minutos ofrece tres horas de uso, ideal para emergencias. El modelo cuenta con compatibilidad con códecs de alta calidad como LDAC, SBC y AAC, y su diseño plegable permite guardarlos fácilmente. Los Sonos Ace, que ahora cuestan 349 dólares en Amazon, ofrecen una experiencia diferente gracias a su conectividad directa con televisores a través del TV Audio Swap, convirtiéndolos en una opción ideal para entretenimiento en casa. Los Sony WH-1000XM6 son audífonos avanzados que ofrecen calidad de sonido y cancelación de ruido superior. Pero su uso prolongado podría afectar tu salud auditiva. Los Sonos Ace, ahora más accesibles, destacan por su conectividad con televisores. La clave es disfrutar de estos dispositivos de manera responsable. Si te interesa adquirir los Sonos Ace por 349 dólares, puedes encontrarlos en Amazon usando nuestro enlace de afiliado en la descripción del episodio.Flash Diario en Spotify
Transmutación de plomo en oro: El experimento ALICE en el CERN logró convertir plomo en oro, replicando un sueño alquímico con tecnología moderna Por Félix Riaño @LocutorCo En el Gran Colisionador de Hadrones (LHC) del CERN, un experimento llamado ALICE ha logrado convertir plomo en oro, alcanzando lo que durante siglos fue solo un sueño para los alquimistas. Pero este oro no se puede usar para joyería ni para volverse rico. En realidad, estos átomos de oro existen solo por una fracción de segundo antes de desaparecer. El proceso ocurre cuando los núcleos de plomo, acelerados al 99,999993 % de la velocidad de la luz, pasan tan cerca unos de otros que sus campos electromagnéticos generan pulsos de fotones capaces de arrancar protones de los núcleos. Así, tres protones menos convierten al plomo en oro. ¿Cómo lograron algo que parecía imposible? ¿Y qué impacto tiene este descubrimiento en la ciencia moderna? No es magia, es ciencia a la velocidad de la luz. Desde la antigüedad, los alquimistas soñaban con transformar plomo en oro, un metal precioso codiciado por su color brillante y su rareza. Pero no sabían que el plomo y el oro son elementos distintos. El plomo tiene 82 protones en su núcleo, mientras que el oro tiene 79. Esta diferencia impide cualquier transformación química. Pero, ¿y si la respuesta no estaba en la química, sino en la física? La física nuclear del siglo XX revolucionó la comprensión de la materia. Los científicos descubrieron que, bajo ciertas condiciones, los átomos podían transformarse. Pero no con reacciones químicas, sino a través de procesos nucleares que afectan el núcleo mismo de los átomos. El Gran Colisionador de Hadrones (LHC) de CERN es el acelerador de partículas más poderoso del mundo. Tiene un túnel de 27 kilómetros donde núcleos de plomo viajan a velocidades cercanas a la luz. Cuando estos núcleos pasan cerca unos de otros, sus campos electromagnéticos generan pulsos de fotones que pueden arrancar protones de los núcleos. Para convertir plomo en oro, un núcleo de plomo debe perder tres protones. Esto sucede en un proceso llamado disociación electromagnética. Los núcleos de plomo emiten fotones que golpean otros núcleos, provocando la pérdida de protones. Pero este oro es extremadamente efímero. Solo existe por una fracción de segundo antes de desintegrarse en partículas subatómicas. El equipo de ALICE utilizó calorímetros de grado cero (ZDC) para detectar y medir estos eventos. Identificaron que durante el período conocido como Run 2 (2015-2018), se produjeron 86 mil millones de núcleos de oro. En términos de masa, esto representa solo 29 picogramos, una cantidad tan pequeña que no se puede ver ni usar. En Run 3, las mejoras en la tecnología permitieron casi duplicar esta cantidad. Pero este oro sigue siendo fugaz. Los átomos de oro se desintegran rápidamente, chocando contra el tubo del LHC y fragmentándose en protones y neutrones. La alquimia moderna es impresionante, pero no produce riquezas. El LHC también produjo otros elementos como talio y mercurio, dependiendo de cuántos protones perdieron los núcleos de plomo. Estos resultados permiten a los científicos comprender mejor la física de partículas y mejorar la estabilidad de los haces de partículas en el LHC. La disociación electromagnética es clave para entender cómo se comportan los átomos bajo campos magnéticos extremos, algo que ayuda en el LHC, también es vital para el diseño de futuros colisionadores de partículas. Además, el estudio ayuda a modelar mejor las pérdidas de partículas en los haces, un problema constante para la eficiencia de estos aceleradores. El experimento ALICE en el LHC logró transformar plomo en oro por una fracción de segundo. Es un sueño antiguo hecho realidad gracias a la ciencia moderna. Si te interesa la ciencia y la tecnología, escucha el pódcast Flash Diario en Spotify. Bibliografía: CERNTechSpotSciTechDailySpace.comFuturismNatureConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.