Flash Diario, de El Siglo 21 es Hoy. Es el pódcast informativo que te mantiene al dÃa con las noticias más recientes y más relevantes del siglo 21. ¡En menos de 5 minutos! Y es un producto informativo de ElSiglo21esHoy.com Cada episodio de Flash Diario te ofrece una dosis diaria de actualidad en formato breve y conciso, presentando las noticias más importantes en diferentes ámbitos como la tecnologÃa, la ciencia, la cultura y la sociedad. Con Flash Diario no tienes que preocuparte por perderte ninguna novedad o avance importante en tu dÃa a dÃa. En menos de 5 minutos te ofrecemos la información más relevante de manera clara y precisa, para que puedas estar al tanto de lo que sucede en el mundo sin perder tiempo ni detalles. Flash Diario es el compañero perfecto para las personas que quieren estar al tanto de las últimas noticias pero no tienen tiempo para seguir programas más largos y detallados. Con Flash Diario estarás siempre actualizado, informado y preparado para cualquier conversación o situación que se presente. ¡SuscrÃbete ahora y no te pierdas ni un solo flash informativo! SuscrÃbete gratis en: âžœ YouTube: https://bit.ly/FlashDiario âžœ Spotify: https://spoti.fi/3MRBhwH âžœ Apple Podcasts: https://apple.co/3BR7AWe This show is part of the Spreaker Prime Network, if you are interested in advertising on this podcast, contact us at https://www.spreaker.com/show/5835407/advertisement
Donate to FLASH DIARIO de El Siglo 21 es Hoy
Adobe mejora tu cámara: App gratuita con inteligencia artificial para iPhone con IA, controles manuales y fotos RAW de alta calidad Por Félix Riaño @LocutorCo Adobe acaba de presentar una app experimental que transforma el modo en que usamos la cámara del iPhone. Se llama Project Indigo, y ya está disponible gratis en la App Store. Detrás del desarrollo están los mismos ingenieros que crearon la cámara de los teléfonos Pixel de Google. La promesa es clara: ofrecer una experiencia de captura con aspecto profesional, basada en inteligencia artificial, procesamiento por ráfagas y controles manuales. ¿Puede una app gratuita reemplazar la cámara nativa del iPhone y convertirse en la favorita de quienes aman la fotografía móvil? Project Indigo no toma una sola foto: toma hasta 32 imágenes en ráfaga, las alinea y las fusiona para crear una sola más precisa, con menos ruido, mejor rango dinámico y más detalle. Lo más impresionante es que lo hace con un enfoque natural, evitando los efectos exagerados que muchos usuarios detestan. Está disponible desde el iPhone 12 Pro y en todos los modelos del iPhone 14 en adelante, aunque Adobe recomienda usarlo con un iPhone 15 Pro o superior. No necesitas tener cuenta de Adobe ni iniciar sesión, lo cual la hace ideal para experimentar sin compromiso. Además, es compatible con fotos RAW y JPEG. Y si usas Lightroom, puedes enviar tus fotos directamente desde Indigo para editarlas. Pero no todo es perfecto: Pierdes funciones nativas como Live Photos, modo retrato y estilos fotográficos. El cerebro detrás de Indigo es Marc Levoy, quien dejó Google en 2020 para unirse a Adobe con el objetivo de crear una “app de cámara universal”. Junto a él está Florian Kainz, también ex Google y experto en procesamiento de imagen. Ambos fueron clave en los avances del Pixel, que convirtió a la cámara de Google en un referente. Con Indigo buscan ir más allá: crear fotos que parezcan tomadas con cámaras réflex, sin dejar de aprovechar el poder del iPhone. Uno de sus logros técnicos es que el obturador no tiene retardo: la app ya está grabando imágenes RAW mientras estás encuadrando, así que cuando presionas el botón, ya tiene lista la mejor toma. Ideal para capturar momentos exactos como un perro en movimiento o una pelota entrando en el arco. Muchos fotógrafos no confían en las cámaras del celular porque el software tiende a exagerar la imagen. Colores saturados, sombras aplastadas, reflejos molestos y detalles perdidos por la compresión digital. Apple ha hecho mejoras, pero su app de cámara sigue sin ofrecer controles manuales completos. Tampoco permite disparar con exposición prolongada real ni ajustar el número de imágenes por ráfaga. Project Indigo responde a esa necesidad con un enfoque híbrido: mantiene la sencillez del teléfono, pero entrega resultados dignos de una cámara avanzada. En lugar de aplicar filtros o IA que "inventan" detalles, Indigo capta datos reales desde el sensor y los combina para mejorar la nitidez. Incluso permite usar el movimiento natural de la mano como técnica para captar más perspectiva y obtener fotos más detalladas, algo conocido como "multi-frame super-resolution". Project Indigo ya puede descargarse gratis y viene con funciones únicas que la distinguen de otras apps. Por ejemplo, permite hacer fotos en condiciones de luz muy baja sin necesidad de trípode, gracias a la combinación de 32 cuadros tomados en segundos. También incluye un botón dedicado para fotos de larga exposición, que simula el efecto de obturación prolongada en cámaras réflex: perfecto para capturar cascadas, luces en movimiento o trazos de luz en la noche. Otra función prometedora es la eliminación de reflejos con IA, ideal para fotos detrás de vitrinas o cristales. Y si te gusta editar, las fotos en RAW pueden abrirse directamente en Lightroom con compatibilidad total con los perfiles de color de Adobe. Aunque aún no tiene modo retrato ni video, ya se están desarrollando esas funciones, junto con bracketing de exposición y enfoque. La app también actúa como plataforma de pruebas para futuras funciones de Photoshop y Lightroom. Además, Adobe ya confirmó que la versión para Android “va a llegar seguro”. Las imágenes tomadas con Indigo pueden verse en calidad HDR en una galería oficial alojada en Adobe Lightroom. Eso sí: la visualización óptima requiere una pantalla compatible y usar Google Chrome. Safari puede no mostrar correctamente los colores ni los brillos. Otra novedad técnica es el demosaico avanzado, que reconstruye los colores a partir del sensor de forma más precisa que otras apps. Indigo también ajusta el tono y el color basándose en lo que hay en la escena: sabe cuándo hay una persona en primer plano o cuándo estás fotografiando un cielo al atardecer. En las pruebas realizadas por medios como PetaPixel y CNET, se destacó que el zoom digital de Indigo supera al del iPhone al no inventar píxeles, sino construir la imagen con varias tomas desde ángulos apenas distintos. Además, la app permite ajustar la cantidad de cuadros por ráfaga, algo que no se ve en otras herramientas similares. Según Adobe, este es solo el comienzo: planean integrar más funciones creativas y fortalecer la app con la ayuda de los comentarios de quienes ya están probándola. Project Indigo es una app gratuita de Adobe que convierte tu iPhone en una cámara avanzada con controles manuales, procesamiento inteligente y compatibilidad con RAW. Está pensada para quienes aman la fotografía, pero también para curiosos que quieran probar una nueva forma de tomar fotos. Descárgala, prueba sus funciones y cuéntanos tu experiencia. Y sigue el pódcast Flash Diario en Spotify.Bibliografía
Google integra su IA más potente a Shorts para crear videos y sonidos por texto Por Félix Riaño @LocutorCo YouTube va a integrar la inteligencia artificial Veo 3 de Google en su formato Shorts. Los creadores van a poder generar videos completos, con imagen y sonido, usando solo texto. ¿Qué pasaría si pudieras crear un video con solo escribir una frase? Eso es justo lo que promete Veo 3, la herramienta de inteligencia artificial más avanzada de Google. Esta nueva función se va a integrar en YouTube Shorts, el formato de video corto que recibe más de 200.000 millones de vistas al día. El anuncio lo hizo el propio CEO de YouTube, Neal Mohan, durante el festival Cannes Lions 2025. Pero hay muchas preguntas: ¿cuánto costará? ¿Habrá deepfakes? ¿Qué pensarán los creadores humanos? ¿Y si el video que ves no lo hizo nadie? YouTube quiere que cualquiera pueda crear videos, incluso sin cámara ni micrófono. Para eso va a usar la tecnología Veo 3, un sistema que transforma texto en videos con sonido. Esta IA ya fue usada en la función Dream Screen, que generaba fondos por texto, pero ahora llega mejorada. Veo 3 puede crear clips de 8 segundos que parecen filmaciones reales. Eso lo hace ideal para Shorts, que permite videos de hasta 60 segundos. Mohan, el CEO de YouTube, dijo que esto va a liberar la creatividad de los creadores y les va a dar nuevas herramientas para contar historias. El problema es que no todo el mundo está feliz con la idea. Muchos creadores temen que la plataforma se llene de videos generados por máquinas, sin alma, sin humor, sin errores humanos. Algunos ya llaman a esto “la avalancha de contenido basura”. Además, Veo 3 podría usarse para hacer deepfakes, es decir, videos falsos que imitan a personas reales. Por eso, YouTube está trabajando con agencias como CAA y con creadores reconocidos para desarrollar herramientas que protejan la imagen de celebridades y personajes públicos. A esto se suma otra preocupación: actualmente Veo 3 solo está disponible pagando el plan AI Ultra, que cuesta 250 dólares y limita la creación a 125 videos cortos al mes. ¿Valdrá la pena para los creadores pequeños? La llegada de Veo 3 no es solo una promesa tecnológica, también es una estrategia para ganarle la carrera a TikTok e Instagram Reels. Shorts se ha convertido en una prioridad para YouTube, que busca atraer a nuevas audiencias. El formato ha crecido 186 % en el último año. Mohan lo describió como “el nuevo Hollywood de los emprendedores”, y destacó que muchos creadores ya están montando sus propios estudios. Con Veo 3, podrían hacer películas de un minuto desde sus celulares. Por ahora, la función se lanzará en los próximos meses y se espera que YouTube adapte el modelo de IA para que produzca videos verticales en alta calidad. Aunque el acceso será limitado al principio, es probable que YouTube libere herramientas gratuitas o reduzca el precio para atraer más creadores. El modelo Veo 3 fue anunciado por Google en 2023 y ha sido mejorado constantemente. Está diseñado para generar videos de 720p con audio incluido, a partir de indicaciones simples. Aunque en su forma original produce videos horizontales, YouTube estaría adaptándolo para que los Shorts no tengan bordes negros. Además, Veo 3 ya ha sido usado en redes para crear contenido viral como "cómo sería Shakespeare como youtuber" o "Napoleón haciendo vlogs". Este tipo de creatividad puede ser divertida, pero también inquietante. Por eso, YouTube trabaja en regulaciones internas para evitar abusos, y aún no ha confirmado si habrá una versión gratuita de esta tecnología. Muchos esperan que Google encuentre un equilibrio entre accesibilidad, calidad y control ético. YouTube va a integrar la inteligencia artificial Veo 3 en Shorts. ¿Será el fin del contenido humano o el inicio de una nueva era?Sigue el pódcast Flash Diario en Spotify para conocer más historias sobre tecnología, ciencia y creatividad digital. BibliografíaHollywood Reporter Engadget Ars Technica The Verge Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
China ha probado con éxito la cápsula Mengzhou, diseñada para llevar personas a la Luna. El ensayo probó su sistema de escape en caso de emergencia Por Félix Riaño @LocutorCo El martes 17 de junio, China lanzó con éxito una prueba de emergencia de su cápsula Mengzhou, sin tripulación, en el Centro de Lanzamiento de Jiuquan. Esta cápsula será usada en futuras misiones tripuladas a la Luna. La maniobra consistió en simular un accidente desde la plataforma de lanzamiento, para verificar que la cápsula pueda escapar si ocurre una explosión en tierra. En 20 segundos, el sistema de propulsión la elevó, luego soltó el módulo principal y lo dejó caer suavemente con paracaídas y airbags. ¿Por qué este ensayo podría significar que China le gane a Estados Unidos en la carrera lunar? La cápsula Mengzhou, cuyo nombre significa “barco del sueño”, está diseñada para llevar astronautas chinos a la órbita lunar antes del año 2030. La prueba realizada el 17 de junio a las 12:30 del mediodía (hora de China) consistió en una simulación real de emergencia. Sin usar un cohete, se activaron motores sólidos que empujaron la cápsula hacia arriba. A los 20 segundos, se separó de su torre de escape y descendió con tres paracaídas hasta aterrizar con ayuda de un sistema de bolsas de aire. A las 12:32 ya estaba de vuelta en el suelo. Esta fue apenas la segunda vez que China realiza una prueba de escape desde cero metros de altitud. La anterior había sido en 1998, con la cápsula Shenzhou. Pero Mengzhou es diferente: su sistema de seguridad no depende del cohete, sino que está integrado en la cápsula misma. Esto permite responder con rapidez en caso de una falla grave durante el lanzamiento. Este paso era vital para validar el diseño y seguir con las próximas pruebas, que incluirán un ensayo en pleno vuelo, a mayor altitud y presión atmosférica. Aunque China aún está por detrás de la NASA en misiones lunares, esta cápsula nueva parece estar ganando terreno.Estados Unidos recortó el presupuesto para sus misiones lunares. La NASA enfrenta incertidumbre. El presupuesto propuesto por la Casa Blanca para 2026 elimina el cohete SLS y la cápsula Orion después de la misión Artemis 3, prevista para 2027. Mientras tanto, China avanza en el desarrollo de Mengzhou, el cohete Long March 10 y un módulo lunar, que podrían permitirle llegar primero a la Luna en esta nueva era. Mengzhou puede llevar hasta siete astronautas en misiones en órbita baja, o tres hasta la órbita lunar. Es parcialmente reutilizable, y ya fue probada en 2020 con un vuelo suborbital. Su versión lunar pesará unas 26 toneladas. Este sistema ha sido diseñado para cumplir con estándares internacionales y funcionar tanto con estaciones espaciales como en misiones lunares. El cohete Long March 10 tendrá tres etapas de 5 metros de diámetro, con motores de queroseno y oxígeno líquido. Está en construcción en Wenchang, en la isla de Hainan. Las plataformas de lanzamiento ya están siendo instaladas. El sistema completo de la misión lunar incluirá un aterrizador llamado Lanyue y, posiblemente, una combinación con el Long March 5B para pruebas atmosféricas. Según la Oficina de Ingeniería Espacial Tripulada de China (CMSEO), todos estos elementos están siendo desarrollados en paralelo. El objetivo es claro: tener una misión tripulada lista antes del año 2030. China ya probó el diseño de reingreso de Mengzhou a gran velocidad hace cinco años, y ahora se enfoca en demostrar que puede proteger vidas humanas desde el despegue hasta el regreso. China dio un paso firme hacia la Luna con la prueba de emergencia de Mengzhou. ¿Quién ganará esta nueva carrera lunar? Comenta y escucha más en el pódcast Flash Diario.
Tinder lanza Double Date, su nueva función para tener citas dobles. Solo tienes que emparejarte con tu mejor amigo o amiga, y hacer match con otra pareja Por Félix Riaño @LocutorCo Tinder acaba de lanzar una función para quienes no se sienten cómodos yendo solos a una primera cita. Se llama “Double Date” y permite formar pareja con un amigo o amiga, deslizar perfiles de otras duplas y coordinar una salida grupal. Por ahora solo está disponible en Estados Unidos, pero el lanzamiento global será en julio. La idea busca atraer a jóvenes que quieren menos presión y más diversión. Según datos internos de Tinder, el 90 % de quienes ya han usado esta función tienen menos de 29 años. ¿Será esta la nueva manera de tener una primera cita sin nervios? El amor ya no es de dos: ahora puede ser de cuatro La app de citas más usada del mundo acaba de activar una opción para los que prefieren no ir solos a conocer a alguien. Se llama Double Date y funciona así: tú te unes con un amigo o amiga, y juntos forman una dupla. Luego, desde el ícono con dos caritas felices en la parte superior derecha, pueden deslizar perfiles de otras duplas. Si una persona de tu dupla y alguien de la otra dan Like, se arma el match. Y desde ahí, se abre un chat de grupo para coordinar una cita en el mundo real. Es una forma de hacer que el primer encuentro no sea incómodo ni silencioso. Muchas personas se sienten nerviosas ante la idea de tener una cita a solas. ¿Qué me pongo? ¿Qué digo? ¿Y si hay un silencio incómodo? Tinder lo sabe y por eso busca soluciones para hacer más cómodas las citas, sobre todo para mujeres y jóvenes. Double Date viene a sumarse a herramientas como “Share My Date”, que permite compartir con amigos los datos del encuentro, y “Matchmaker”, donde tus seres queridos recomiendan perfiles. Además, en la configuración puedes decidir si quieres que tu amigo o amiga aparezca en tu perfil, y si deseas que Double Date tenga prioridad o no al mostrarte perfiles. La función fue probada durante meses en varios países, y los resultados han sido sorprendentes: las mujeres que usaron Double Date fueron tres veces más propensas a dar Like a una pareja que a una persona sola. Además, los chats entre duplas tienen 35 % más mensajes que los uno a uno. También se ha visto que 15 % de los usuarios que aceptaron una cita doble eran nuevos en Tinder o habían reactivado su cuenta. Esto coincide con el nuevo enfoque del CEO Spencer Rascoff, quien quiere alejar a Tinder de su fama de app para encuentros casuales. Su idea es ofrecer “menos likes, pero mejores matches”. Tinder quiere volverse más útil, más segura y más divertida para los jóvenes. Por eso ha sumado nuevas funciones y herramientas de seguridad. Hoy tiene más de 50 millones de usuarios activos mensuales. Desde la pandemia, ha tenido que adaptarse a nuevas formas de relacionarse, con usuarios que beben menos alcohol, tienen menos sexo y prefieren vínculos más tranquilos. Double Date se lanzó oficialmente en Estados Unidos el 16 de junio de 2025 y estará disponible en el Reino Unido y el resto del mundo desde mediados de julio. La app también está probando funciones pagas como filtros de estatura, una idea polémica pero muy pedida. Tinder lanza citas dobles: ahora puedes invitar a tu mejor amiga y conocer juntos a otra pareja. ¿Quién te acompañaría?Escucha más en Flash Diario en Spotify
Una roca blanca parecida a la kryptonita podría abastecer el 90 % de autos eléctricos en Europa. ¿Mito o milagro?
Por primera vez vimos el polo sur del Sol. Su magnetismo está desordenado. Es la clave para predecir tormentas solaresPor Félix Riaño @LocutorCo Por primera vez, la humanidad ha visto el polo sur del Sol. Las imágenes fueron enviadas por la sonda Solar Orbiter, un proyecto conjunto entre la Agencia Espacial Europea y la NASA, que está revolucionando el estudio de nuestra estrella. Estas imágenes muestran un campo magnético completamente desordenado y revelan nuevas pistas para anticipar tormentas solares que pueden afectar satélites, telecomunicaciones y redes eléctricas en la Tierra. ¿Estamos más cerca de predecir las explosiones solares con precisión? El Sol es más caótico de lo que creíamos El Solar Orbiter fue lanzado en 2020 desde Cabo Cañaveral. Su misión es ambiciosa: estudiar el Sol desde fuera del plano donde orbitan los planetas, algo que ningún otro satélite con cámaras había logrado. Para cambiar su inclinación orbital sin gastar combustible, ha utilizado maniobras gravitacionales: una vuelta a la Tierra y cuatro a Venus. El 18 de febrero de 2025 pasó a solo 379 kilómetros de la superficie de Venus, más bajo que un vuelo Bogotá–Cali, para inclinar su trayectoria. En marzo de 2025 alcanzó los 17 grados por debajo del ecuador solar y allí tomó las primeras imágenes del polo sur. La mayoría de las imágenes que habíamos visto antes del Sol provenían de su zona ecuatorial. Esta es la primera vez que miramos desde abajo. El Sol atraviesa ciclos de 11 años en los que su actividad magnética sube y baja. En el punto más alto, llamado “máximo solar”, sus polos magnéticos se invierten: el norte pasa a ser sur y viceversa. Esta fase es peligrosa porque se producen más manchas solares, más llamaradas y más eyecciones de masa coronal. Estas explosiones liberan radiación y partículas cargadas que viajan a más de un millón de kilómetros por hora. Si una de esas nubes de plasma impacta la Tierra, puede dañar satélites, GPS, redes eléctricas y hasta dejar sin servicio ciudades enteras. En 2012, una de estas eyecciones estuvo a días de golpear la Tierra. Si nos hubiera alcanzado, habría causado un apagón global. El problema es que, hasta ahora, no teníamos datos directos de los polos del Sol, que son clave para entender cómo y cuándo ocurren estas tormentas. Gracias al Solar Orbiter, ahora tenemos imágenes y mediciones directas del polo sur del Sol. Tres instrumentos trabajaron juntos para lograrlo. El PHI mostró que el campo magnético está revuelto, con parches de polaridad norte y sur mezclados, justo en el momento del cambio de ciclo. El EUI captó gas a temperaturas de un millón de grados Celsius en la corona solar. Y el SPICE logró un hito: medir por primera vez la velocidad de los materiales que salen disparados del Sol usando el efecto Doppler. Estas mediciones nos permiten ver cómo se origina el viento solar, una corriente de partículas que viajan por el espacio a velocidades superiores a los 400 mil kilómetros por hora. La información recogida en este primer vuelo es solo el comienzo. Se espera que el Orbitador llegue a 24 grados de inclinación en 2026 y a 33 grados en 2029, para mirar de frente ambos polos. El Sol no gira como un cuerpo sólido. Su ecuador rota cada 26 días, mientras que los polos tardan 33. Esta diferencia genera tensiones que retuercen el campo magnético y, cada once años, causan un “volcán” de actividad. Desde la Tierra, el Sol se ve como un disco brillante sin textura, pero con filtros ultravioleta se revelan bucles, remolinos y explosiones. El Solar Orbiter busca entender cómo ese caos nace y se organiza. El SPICE detectó elementos como hidrógeno, carbono, oxígeno, neón y magnesio a diferentes temperaturas. En la región de transición del Sol, por ejemplo, la temperatura pasa de 10 mil a varios cientos de miles de grados en cuestión de segundos. Con sus 10 instrumentos científicos, el Orbitador es el laboratorio más avanzado que se ha enviado a estudiar el Sol. Este avance es clave para predecir tormentas solares y evitar desastres en la era digital. Hemos visto por primera vez el polo sur del Sol. Lo que descubrimos allí cambia lo que creíamos saber. ¿Podremos anticipar mejor sus erupciones? Escucha Flash Diario para seguir esta historia solar. Síguelo ahora en Spotify:Flash Diario en SpotifyPor primera vez vimos el polo sur del Sol. Su magnetismo está desordenado. Es la clave para predecir tormentas solares.
Meta lanzó una herramienta para editar videos cortos con inteligencia artificial. Es gratuita, pero por tiempo limitado Por Félix Riaño @LocutorCo Meta acaba de estrenar una función que permite transformar cualquier video corto en algo mucho más llamativo. Basta con subir un clip de hasta 10 segundos, elegir uno de los más de 50 estilos visuales preestablecidos y en segundos aparece la versión editada. Puedes cambiar el fondo, la ropa o incluso el ambiente. Todo sin necesidad de saber editar. Está disponible en más de una docena de países, incluyendo Estados Unidos. Por ahora es gratuita, pero Meta ya avisó que no será para siempre. ¿Es útil para todos o solo un truco visual pasajero? Los resultados pueden ser extraños, aunque muy divertidos. La propuesta de Meta es sencilla y llamativa. Imagínate que grabas un video cualquiera. En tu casa, en la calle, o con tu mascota. Luego entras a la app Meta AI, o al sitio web Meta.AI, o usas la app Edits. Subes tu video y eliges un estilo: cómic antiguo, videojuego, nieve, desierto o hasta un traje de astronauta. La inteligencia artificial lo transforma. Y listo. Puedes compartirlo directamente en Instagram o Facebook. Esta herramienta se apoya en lo que Meta llamó su tecnología Movie Gen, un modelo que desde el año pasado viene generando imágenes, sonidos y videos completos a partir de texto. Pero en esta etapa, lo que puedes hacer es editar tus propios videos con ayuda de plantillas predefinidas. Aunque la promesa suena atractiva, la realidad es un poco distinta. Muchos usuarios han compartido resultados inesperados. Como cactus de colores en medio del jardín. O mascotas con brillos raros. O transformaciones tipo anime que terminan con ojos fluorescentes y labios neón. Por ahora no es posible escribir lo que quieres que haga la inteligencia artificial. Solo se pueden usar los 50 estilos que ya vienen cargados. Además, el tiempo máximo de edición es de 10 segundos. Otro detalle que no todo el mundo considera: al usar la herramienta, estás compartiendo tu video con Meta. La empresa puede usarlo para seguir entrenando sus modelos. Meta ya anunció que más adelante vamos a poder escribir nuestras propias instrucciones, para que la IA edite según lo que le digamos. Pero eso será más adelante. Lo que tenemos hoy es una herramienta pensada para facilitar la creación de contenido visual llamativo, sin necesidad de saber edición. Puede ser útil para creadores, para profesores que quieran hacer algo diferente, o para familias que quieran darle un toque divertido a sus recuerdos. Pero también plantea preguntas: ¿cómo saber si un video fue editado con IA? ¿Cómo evitar que esta herramienta se use para engañar? Por ahora, lo mejor es probarla con precaución y saber que, aunque es entretenida, no todo lo que sale de ahí parece real. Esta nueva herramienta forma parte de una carrera tecnológica en la que están también Google, OpenAI, Runway y muchas más. Pero Meta tiene algo que los demás no: la integración directa con Facebook e Instagram. Eso le da una ventaja, porque no tienes que aprender a usar un nuevo programa. Solo entras, eliges y compartes. Según la empresa, los estilos visuales fueron definidos con ayuda de creadores de contenido que conocen bien qué cosas funcionan mejor en redes. Y aunque aún no está disponible en todo el mundo, en Europa algunas funciones están limitadas por las regulaciones, pero la edición de video con IA ya está activa. Meta te permite editar tus videos como si tuvieras un estudio de cine en el bolsillo. Es gratis, por ahora. Es divertida, aunque imperfecta. Y puede ser útil si sabes lo que estás haciendo. ¿Ya pensaste qué video te gustaría transformar?Escucha más noticias como esta en Flash Diario en Spotify Meta lanza editor de video con IA. Gratuito, creativo y fácil. ¿Ya lo probaste?
¿Y si el universo no comenzó con un Big Bang sino dentro de un agujero negro? Por Félix Riaño @LocutorCo Un nuevo modelo cosmológico sugiere que el universo no nació de una gran explosión, sino de un rebote dentro de un agujero negro. Desde hace casi un siglo, la mayoría de científicos ha creído que el universo comenzó con el Big Bang: una gran explosión desde un punto infinitamente denso. Pero un grupo internacional de físicos, liderado por el profesor Enrique Gaztañaga, plantea que todo lo que conocemos podría estar dentro de un agujero negro. Esta nueva teoría, publicada en la revista Physical Review D, propone que el universo no surgió de la nada, sino de una compresión y rebote de materia dentro de un agujero negro generado por un colapso gravitacional masivo. ¿Podría este modelo reemplazar al Big Bang y explicar los misterios que aún nos desconciertan? El Big Bang podría estar equivocado Un equipo del Instituto de Cosmología y Gravitación de la Universidad de Portsmouth ha propuesto una idea tan audaz como fascinante. Según su modelo, llamado Universo Agujero Negro, el universo habría surgido de una fase de colapso, donde una gran nube de materia se comprimió por la gravedad hasta alcanzar una altísima densidad. Luego, esa materia rebotó hacia afuera, como un resorte comprimido, dando lugar al universo que conocemos. Lo sorprendente es que esta expansión acelerada no necesitaría campos hipotéticos como en la teoría inflacionaria del Big Bang, sino que sería una consecuencia natural del rebote. ¿Y si el borde del universo es un horizonte? La nueva teoría dice que el borde de nuestro universo podría ser el mismo horizonte de eventos de un agujero negro. Es decir, estamos dentro de una región de la cual no puede escapar la luz. Esto explicaría por qué no podemos ver más allá de ciertos límites. Además, abre la posibilidad de que otros agujeros negros contengan sus propios universos internos. Según los autores, esta idea se ajusta mejor a las leyes de la física cuántica, que impiden que la materia se comprima infinitamente. En lugar de una singularidad como proponían Penrose y Hawking, habría un límite cuántico que permite el rebote. El modelo del Big Bang ha tenido dificultades para integrarse con la mecánica cuántica. Las singularidades, como el punto de origen del universo, rompen las reglas conocidas de la física. El nuevo modelo evita este problema al considerar que la compresión de materia tiene un límite, y que en lugar de una explosión desde la nada, el universo surgió de una transformación interna: un rebote. Además, observaciones recientes del telescopio James Webb han mostrado comportamientos inesperados en galaxias tempranas. Por ejemplo, dos tercios de esas galaxias parecen girar en la misma dirección, lo cual sugiere que el universo podría haber nacido girando, como ocurre dentro de un agujero negro. Este nuevo enfoque no solo es compatible con la relatividad general y la mecánica cuántica, sino que también permite hacer predicciones comprobables. Por ejemplo, el satélite ARRAKIHS, desarrollado por la Agencia Espacial Europea con participación del profesor Gaztañaga, podrá observar las zonas exteriores de galaxias para detectar huellas de formación que el modelo del Big Bang no explica. La misión está diseñada para detectar estructuras de brillo extremadamente débil y trazar la historia de la evolución galáctica, lo que podría revelar si venimos de una expansión o de un rebote. Este modelo también puede arrojar luz sobre el origen de los agujeros negros supermasivos, el comportamiento de la materia oscura y otros misterios cósmicos. El modelo Black Hole Universe no es completamente nuevo. En 1972, el físico teórico indio Raj Kumar Pathria ya había sugerido la idea, pero fue ignorada por la comunidad científica. Ahora, con más datos y tecnología como el telescopio James Webb, esta hipótesis cobra fuerza. El equipo de investigación incluye a científicos de España y del Reino Unido, y se apoya en principios tanto de la relatividad como de la cuántica. Este enfoque es parte de una corriente que busca modelos cíclicos del universo, en los cuales cada “fin” es en realidad un nuevo comienzo. La idea de que estamos en el interior de un agujero negro abre nuevas preguntas sobre si el tiempo, el espacio y las leyes físicas son más maleables de lo que pensábamos. Una nueva teoría propone que el universo nació de un rebote dentro de un agujero negro, no de una explosión. ¿Qué opinas? Comenta y escucha más episodios de Flash Diario en Spotify:Flash Diario en Spotify Científicos proponen que el universo nació dentro de un agujero negro, no del Big Bang. Una teoría que desafía todo.
Apple rediseña sus sistemas y añade IA útil: traducción en llamadas, respuestas automáticas y privacidad total sin nube Por Félix Riaño @LocutorCo Apple anunció nuevas funciones de inteligencia artificial en su evento WWDC 2025. Abrió su modelo de lenguaje a desarrolladores, presentó funciones como traducción en llamadas y rediseñó sus sistemas con un estilo llamado “vidrio líquido”.Abrió la semana de la WWDC 2025 con una estrategia cautelosa: mostraron avances en inteligencia artificial sin prometer demasiado. A diferencia de lo que hicieron otras grandes tecnológicas, Apple eligió centrarse en funciones útiles y reales que ya pueden usarse. ¿Qué significa esto? Por ejemplo, ahora Siri podrá ayudarte a identificar un abrigo en una tienda en línea y buscarlo en tus apps favoritas. Además, presentaron un rediseño visual que unifica todos sus sistemas operativos, desde iPhone hasta Apple Watch, con un material nuevo llamado “vidrio líquido”. También presentaron nuevas funciones como traducción en tiempo real de llamadas y un sistema de pantalla que silencia los números desconocidos. ¿Está Apple quedándose atrás en la carrera de la inteligencia artificial, o está siendo más prudente que sus rivales? Apple no busca impresionar con promesas exageradas, sino con cosas que ya funcionan bien Cada año, Apple celebra su conferencia para desarrolladores conocida como WWDC. Allí suelen presentar nuevas versiones de sus sistemas operativos y algunas sorpresas tecnológicas. Este año, el foco estuvo en la inteligencia artificial. Apple reveló que va a permitir que los desarrolladores usen su propio modelo de lenguaje dentro de las apps. ¿Qué quiere decir eso? Que cualquier aplicación en tu iPhone podría usar una IA integrada, sin enviar datos a la nube. Eso ayuda a cuidar la privacidad y hace que la respuesta de la IA sea más rápida. Además, Apple también integrará la tecnología de OpenAI, como ChatGPT, en sus herramientas creativas. Por ejemplo, se podrá generar imágenes con IA directamente en su app “Image Playground”. Aunque estas mejoras parecen útiles, algunos expertos se mostraron escépticos. La IA de Apple funciona directamente en el dispositivo, sin conectarse a los centros de datos más potentes que otras empresas sí usan. Esto hace que sea más privada, pero también más limitada. Su modelo tiene 3 mil millones de parámetros, mientras que modelos más avanzados tienen hasta 10 o 20 veces más. Por eso, no puede hacer tareas complejas como redactar textos largos o analizar grandes cantidades de datos. Además, Apple no ofreció nuevas funciones “impactantes” como las de sus competidores. La reacción del mercado lo reflejó: las acciones de Apple bajaron 1,2 % tras la presentación. ¿Está Apple apostando por la seguridad y privacidad a costa de la innovación? Apple también rediseñó todos sus sistemas operativos con un nuevo estilo visual llamado “vidrio líquido”. Este diseño hace que los botones, menús e iconos se vean más translúcidos, como si fueran hechos de cristal. Cambian de color y forma dependiendo de lo que haya en pantalla. Esto será visible en iOS 26, iPadOS 26, macOS Tahoe 26 y watchOS 26. Por ejemplo, ahora la hora en la pantalla de bloqueo del iPhone se adapta y se coloca detrás del sujeto principal de la foto. Además, hay nuevas funciones como “Call Screening”, que permite que el iPhone conteste llamadas desconocidas y pregunte quién llama, mostrándote una transcripción. También podrás traducir llamadas en tiempo real, incluso si la otra persona no tiene iPhone. Y en Mensajes se añadieron fondos personalizados, encuestas dentro de los chats y filtros para silenciar mensajes de desconocidos. El rediseño visual fue posible gracias a los chips Apple Silicon, que ahora son lo suficientemente potentes para renderizar el “vidrio líquido” en tiempo real. Apple también cambió su sistema de numeración: ahora usará nombres de años para identificar sus sistemas operativos. Así, todos llevarán el número 26 este año. En cuanto a desarrolladores, podrán usar herramientas como SwiftUI, UIKit y AppKit con nuevos controles para adaptarse al estilo líquido. Apple mostró que incluso apps como Safari, FaceTime, Apple Music y Apple Podcasts ya adoptaron esta nueva estética. En paralelo, OpenAI anunció que alcanzó una facturación anual de 10 mil millones de dólares, recordando que la competencia en IA no da tregua. Mientras tanto, Apple busca diferenciarse con integración, diseño y privacidad. Apple presentó avances concretos en inteligencia artificial, centrados en privacidad y utilidad, junto con un diseño visual innovador. ¿Te gustaría usar estos cambios? Comenta y escucha más en el pódcast Flash Diario en Spotify.BibliografíaReuters: Apple opens its AI to developersCNN: Apple WatchOS 26 gets new featuresBloomberg: Everything New Coming to iPhonesApple Newsroom: New software designConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
NASA perdería 41 misiones científicas si se aprueba el presupuesto de Trump La propuesta de Trump reduciría el presupuesto de la NASA un 25 %, eliminando misiones a Marte, Venus, la Tierra y el espacio profundo. Por Félix Riaño @LocutorCo La NASA está a punto de enfrentar el mayor recorte de presupuesto en su historia si se aprueba la propuesta del expresidente Donald Trump para el año fiscal 2026. La medida implicaría una reducción de 24.800 a 18.800 millones de dólares, lo que representa un recorte del 25 %. Eso dejaría a la agencia en su nivel más bajo de financiación desde hace décadas, ya ajustado a inflación. Se cancelarían más de 40 misiones científicas, incluyendo observatorios de asteroides, sondas a Marte y programas de monitoreo climático desde el espacio. ¿Estamos viendo el fin de una era en la exploración espacial estadounidense? Trump también amenaza con romper contratos con SpaceX. El 30 de mayo, la NASA recibió la versión detallada del presupuesto 2026 propuesto por Trump. Desde principios de mayo ya se conocía que se avecinaban tiempos difíciles. La propuesta apunta a recortar casi a la mitad el presupuesto para ciencias espaciales. Misiones emblemáticas como Mars Sample Return, MAVEN, DAVINCI y VERITAS quedarían sin financiación. Incluso los observatorios Voyager, que llevan más de 45 años enviando datos desde los bordes del sistema solar, perderían su presupuesto y quedarían flotando sin dirección. Esta no es solo una decisión económica: es una redefinición del propósito de la agencia, centrado exclusivamente en una carrera por llegar antes a Marte que China. Los recortes afectarían colaboraciones internacionales clave. La misión ExoMars, liderada por la Agencia Espacial Europea y apoyada por la NASA, quedaría huérfana de apoyo estadounidense. También se eliminaría el respaldo a la estación lunar Gateway, poniendo en riesgo la participación europea en futuros viajes a la Luna. Las misiones de observación de la Tierra, fundamentales para monitorear el cambio climático, sufrirían una reducción del 53 %. Incluso se eliminarían misiones ya operativas, como el orbitador MAVEN o el observatorio de rayos X Chandra. El daño va más allá de la ciencia: se perderían miles de empleos entre personal civil y contratistas. Y lo más preocupante: una vez apagados, muchos de estos proyectos no podrán reiniciarse. Algunos senadores republicanos ya están actuando para evitar estos recortes. Desde el comité de Comercio, Espacio y Transporte, liderado por Ted Cruz, se propone devolver miles de millones al presupuesto de la NASA, principalmente para proteger el programa Artemis. Esta defensa, sin embargo, prioriza los vuelos tripulados a la Luna, no las misiones científicas. Se busca prolongar la vida útil del cohete SLS, aunque la Casa Blanca prefiere reemplazarlo con vehículos más baratos como el Starship de SpaceX o el New Glenn de Blue Origin. Pero los desarrollos de esas empresas aún enfrentan fallos técnicos. La tensión entre Trump y Elon Musk también complica el panorama, con amenazas de romper contratos federales con SpaceX. Las misiones que podrían cancelarse incluyen VERITAS y DAVINCI, ambas destinadas a estudiar Venus con gran detalle. OSIRIS-APEX, continuación del exitoso OSIRIS-REx, perdería la oportunidad de estudiar el asteroide Apophis en 2029, cuando pase a solo 32.000 kilómetros de la Tierra. También se recortarían fondos a LISA, un proyecto conjunto con Europa para detectar ondas gravitacionales en el espacio. Y el telescopio Chandra, lanzado en 1999, dejaría de recibir mantenimiento pese a seguir enviando datos valiosos. El presupuesto propuesto justifica estos recortes con el argumento de que los 7 mil millones anuales que NASA destina a ciencia son “insostenibles”. Pero la comunidad científica advierte que se trata de un golpe sin precedentes a décadas de avances y cooperación internacional. Si se aprueba el presupuesto, la NASA dejaría de ser una agencia científica y pasaría a ser solo una agencia de vuelos tripulados. ¿Es ese el camino que queremos para la exploración espacial? Puedes escuchar más en el pódcast Flash Diario en Spotify. Bibliografía The Economist - 4 de junio de 2025Wall Street Journal - 5 de junio de 2025BBC News - 6 de junio de 2025Washington Post - 8 de junio de 2025Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
OnePlus lanza la Pad 3 con pantalla casi 4K, batería gigante y chip Snapdragon 8 Elite Por Félix Riaño @LocutorCo OnePlus presentó la tercera generación de su tablet, la Pad 3, que estará disponible desde el 8 de julio en Estados Unidos, Canadá y, se espera, muy pronto también en México. Tiene una pantalla LCD de 13,2 pulgadas con resolución 3.4K, batería de 12.140 miliamperios hora, sistema multitarea Open Canvas y el procesador más potente de Android en 2025. Su precio arranca en 700 dólares. En América Latina, especialmente en México y Colombia, donde las marcas de BBK Electronics como OnePlus, Oppo, Realme y Vivo han ganado presencia, esta tablet podría convertirse en una opción destacada. ¿Será suficiente para competir contra el iPad o la Galaxy Tab de Samsung? Pero hay dudas razonables por el precio y limitaciones. La Pad 3 de OnePlus busca captar la atención de usuarios exigentes. Tiene una pantalla de 3.392 por 2.400 píxeles. Eso equivale a 3.4K, que es muy cercano a la resolución 4K que solemos ver en televisores de alta gama. La diferencia, en la práctica, es mínima para el ojo humano. Esta pantalla permite ver detalles finísimos en fotos, leer texto sin esfuerzo y ver películas con alta definición. Además, con una tasa de refresco de 144 hercios, el movimiento es suave, ideal para videojuegos y desplazamiento rápido. Esta pantalla es LCD, no OLED, lo que significa que los negros no serán tan profundos, pero en comparación con otras tablets en este rango de precio, sigue estando entre las mejores. La experiencia visual está respaldada por ocho parlantes distribuidos para adaptar el sonido a la orientación de la tablet. Aun con esas características, la OnePlus Pad 3 genera dudas por su precio. La marca debutó en el mercado ofreciendo tecnología de alta gama a precios reducidos. Esa era su promesa. Pero en esta ocasión, el precio base es de 700 dólares, y si se agregan el teclado y el lápiz, supera los 900. Eso la ubica en el mismo terreno de las tablets premium de Samsung y Apple. Y aquí es donde surgen preguntas. ¿Vale la pena pagar tanto por una tablet que no tiene lector de huellas ni conexión celular? Es decir, no puedes desbloquearla con huella ni usarla con un plan de datos móviles. Además, OnePlus solo promete tres años de actualizaciones del sistema operativo Android, mientras que Apple y Samsung ofrecen más. La pregunta de fondo es: ¿sigue siendo OnePlus una marca “accesible”, o está apostando por otro tipo de usuario? A pesar de esas inquietudes, hay razones para entusiasmarse. La Pad 3 tiene el nuevo procesador Snapdragon 8 Elite, el chip más rápido de Android este año. Está acompañado por hasta 16 gigabytes de RAM, lo que la convierte en una herramienta fluida para multitarea, edición de documentos, dibujo digital y reproducción de contenido multimedia. Y su batería merece una mención especial: tiene 12.140 miliamperios hora. ¿Eso es mucho? Sí. Una tablet promedio tiene entre 7.000 y 8.000. Esta puede durar más de un día completo de uso intensivo. Además, carga del 0 al 100 % en solo 92 minutos con un cargador rápido de 80 vatios. Y si se deja en reposo, la batería casi no se descarga. El sistema operativo Android 15 incluye Open Canvas, una herramienta para dividir la pantalla y tener tres aplicaciones abiertas al tiempo, ideal para quienes trabajan en varias tareas a la vez. Además, la tablet se puede conectar con teléfonos OnePlus para compartir archivos fácilmente y con computadores Mac para controlarlos de forma remota. En México, Colombia y otros países de América Latina, las marcas del grupo BBK han crecido silenciosamente. Aunque el nombre BBK Electronics no es tan conocido por el público, sus marcas sí lo son: OnePlus, Oppo, Vivo, Realme e iQOO. Estas marcas ofrecen celulares, relojes inteligentes, audífonos, y ahora tablets como la Pad 3, con la que buscan entrar a nuevos segmentos. En el mercado mexicano, donde la oferta de tablets premium Android no es tan amplia como en Estados Unidos o Europa, una opción como la Pad 3 puede ser clave. Además, el diseño delgado —solo 5,97 milímetros— y su color azul oscuro metálico le dan un aspecto moderno y elegante. La cámara trasera es de 13 megapíxeles y la frontal de 8. No son cámaras impresionantes, pero son útiles para videollamadas. La Pad 3 también incluye inteligencia artificial en la grabadora de voz, en el editor de notas y en la galería de fotos. Tiene un botón dedicado para el asistente Gemini de Google, y funciones de personalización muy útiles para quienes usan la tablet como herramienta de trabajo o estudio. La OnePlus Pad 3 es una tablet avanzada, ideal para productividad y entretenimiento, con pantalla casi 4K y batería de larga duración. Aunque su precio es alto, puede competir con los modelos más populares. ¿La comprarías? Déjalo en los comentarios y escucha más en Flash Diario en Spotify.Pantalla casi 4K, chip top y batería gigante: así es la nueva tablet de OnePlus. ¿Le gana al iPad?Bibliografía:Bloomberg WIRED Stuff.tv The Verge Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
El nuevo Nothing Phone 3 será más potente, pero su alto precio sorprende a todosNothing presentará su nuevo teléfono insignia el 1 de julio. Usará el chip Snapdragon 8 Gen 3 y tendrá materiales premium. Su precio podría superar los 850 euros, lo que marcaría una gran diferencia con respecto a los modelos anteriores de la marca.Por Félix Riaño @LocutorCoLa empresa británica Nothing ha confirmado la presentación oficial del Nothing Phone 3 para el 1 de julio. Este modelo será el primero en la categoría de gama alta de la marca. Llevará un procesador Snapdragon 8 Gen 3 y ofrecerá materiales de mayor calidad. Aunque aún no conocemos todos los detalles técnicos, se espera que venga en dos versiones: una de 12 GB de RAM y 256 GB de almacenamiento, y otra con 16 GB de RAM y 512 GB. Lo que más ha llamado la atención es su posible precio: entre 799 y 899 dólares en Estados Unidos, lo que se traduce en unos 850 euros en Europa. ¿Perderá Nothing su reputación de marca accesible con esta apuesta?El precio ya no es su mejor carta de presentación.La compañía Nothing, conocida por sus diseños transparentes y su enfoque minimalista, comenzó vendiendo audífonos y luego pasó al mundo de los teléfonos inteligentes. El Nothing Phone (1) y el (2) fueron bien recibidos por ofrecer buenas prestaciones a precios competitivos. Por ejemplo, el Phone (2) comenzó en 599 dólares, con 8 GB de RAM y 128 GB de almacenamiento. Ahora, el nuevo Phone (3) apunta mucho más alto. La interfaz Glyph seguirá presente, aunque podría ser rediseñada. El anuncio se hará a las 19:00, hora de París, con una promesa clara en su mensaje promocional: “Come to Play”, que sugiere un rendimiento optimizado para videojuegos.Todo suena bien, pero el cambio de estrategia preocupa a muchos seguidores de la marca. Nothing había conquistado al público con sus precios bajos y su estética llamativa. Ahora, al subir el precio por encima de los 800 euros, muchos se preguntan si vale la pena el cambio. ¿Por qué una marca que apostaba por democratizar la tecnología quiere competir ahora con los gigantes como Samsung, Apple o OnePlus? El aumento de precio no es pequeño. Comparado con la generación anterior, el sobrecosto puede llegar a los 100 euros por configuración equivalente. Además, el teléfono aún no contará con el procesador Snapdragon 8 Elite, reservado para la gama más alta.La decisión de subir el precio podría tener un sentido estratégico: Nothing busca posicionarse como marca aspiracional. Carl Pei, su fundador, ha dicho que el objetivo es ofrecer una experiencia premium sin llegar a los precios de los teléfonos de más de 1.000 euros. Si bien el Phone 3 será más caro, aún podría ofrecer un valor competitivo frente a rivales con características similares. Por ejemplo, el OnePlus 13 con Snapdragon 8 Elite cuesta 999 dólares. Si el Phone 3 se queda en los 799, puede verse como una alternativa más económica dentro del segmento de gama alta. Todo dependerá de cuántas funciones nuevas lleguen con Nothing OS y si el diseño sigue siendo igual de atractivo.Mientras tanto, el modelo más económico, el Nothing Phone 3a, sigue ganando atención. En Amazon, se ofrece por 289 euros, con pantalla AMOLED de 6,77 pulgadas, procesador Snapdragon 7s Gen 3 y cámara principal de 50 megapíxeles. Su diseño con carcasa traslúcida y sistema Glyph lo hacen reconocible. Tiene buena autonomía y está enfocado en el uso diario. Recientemente ha recibido una valoración de 4,5 sobre 5, y se ha vendido más de 200 veces solo en el último mes. A su vez, se ha filtrado el precio del primer auricular over-ear de Nothing, que costará unos 300 euros. Competirá con modelos de Bose, Sony y Apple, prometiendo buena calidad de sonido y diseño elegante.El Nothing Phone 3 será más caro que nunca, pero también más potente. ¿Vale la pena? Vamos a ver su rendimiento tras el lanzamiento. Escucha más análisis en Flash Diario.
El nuevo Mario Kart tiene mundo abierto, clima, videochat y 24 personajes en una sola carrera Por Félix Riaño @LocutorCo Mario Kart World transforma por completo el clásico de carreras de Nintendo. Es el juego estrella de la nueva Switch 2, con un mundo interconectado, carreras de 24 jugadores y misiones que combinan acción, exploración y caos. Por primera vez en la historia de Mario Kart, los jugadores van a recorrer un mundo entero sin pantallas de carga, sin menú de pistas separadas y con una sola gran región conectada por caminos y rutas temáticas. Mario Kart World para la nueva consola Nintendo Switch 2 es mucho más que una secuela: es una reinvención profunda de la franquicia, que ahora incluye exploración libre, clima dinámico, videochat, nuevas técnicas de salto, música en vivo, y carreras con hasta 24 personajes al mismo tiempo. Todo esto llega como el título estrella con el que Nintendo lanza la Switch 2. ¿Puede este nuevo Mario Kart estar a la altura de la historia que lo precede? ¿O es demasiado arriesgado cambiar tanto de golpe? Algunos jugadores aún dudan del modo de exploración libre. Nintendo lanzó su nueva consola Switch 2 y, con ella, el esperado Mario Kart World. Desde el primer anuncio, el equipo de desarrollo explicó que esta versión iba a tener dos cambios enormes: duplicar el número de corredores en cada carrera y rediseñar el mundo como una sola gran región interconectada. Eso obligó a construir el juego desde cero. La idea era tan ambiciosa que no fue posible desarrollarla en la consola anterior. Ahora, con la Switch 2, por fin se hace realidad. A diferencia de otros juegos de la saga, donde cada pista es independiente, aquí todas las rutas forman parte de un mismo mapa. Se puede recorrer libremente en el modo Free Roam, con caminos que atraviesan castillos, selvas, ciudades y desiertos. A pesar de las grandes expectativas, no todo el mundo está convencido de que el modo Free Roam funcione como se esperaba. Algunos periodistas que ya lo probaron afirman que la exploración fuera de las carreras se vuelve lenta cuando el terreno cambia a pasto o arena. También dicen que los coleccionables, como las medallas de Peach y los paneles de bloques, no son tan emocionantes de encontrar como en otros juegos de Nintendo. Las misiones P Switch están repartidas por todo el mapa, y algunas requieren habilidades nuevas como saltos cargados o volar por el aire. Aunque la dificultad de estas misiones sorprende, hay quienes sienten que el mapa no tiene suficiente contenido para justificar tantas horas de recorrido. Más allá de las dudas sobre la exploración, el corazón de Mario Kart Worldsigue siendo la competencia. El nuevo modo Knockout Tour es una carrera en seis partes donde los últimos cuatro corredores son eliminados en cada tramo. Este formato, con 24 jugadores en simultáneo, exige una estrategia constante y aprovecha al máximo las rutas conectadas. Los objetos clásicos siguen presentes, pero ahora se suman técnicas como el Charge Jump, que permite saltar y deslizarse por barandas. Las pistas, tanto nuevas como reimaginadas, están diseñadas para ofrecer atajos, caminos alternos y muchas sorpresas. Desde Shy Guy Bazaar hasta las Great ? Block Ruins, cada trayecto combina nostalgia y creatividad. Las carreras siguen siendo el centro del juego, y eso tranquiliza a quienes temían perder la esencia de Mario Kart. El juego cuesta 80 dólares, siendo el primero de Nintendo con ese precio desde la época del Nintendo 64. Pero ese valor incluye muchas novedades. Hay más de 40 personajes jugables, entre ellos figuras inesperadas como la vaca Cow, que antes solo aparecía como obstáculo. También se integra un sistema de videochat con globos flotantes que muestran la cara del jugador durante la carrera. La música, tocada por una banda en vivo, cambia según la zona del mapa, el clima o la hora del día. Hay modos clásicos como Grand Prix, batalla de globos, recolección de monedas y contrarreloj. Además, la Switch 2 permite conectar cámaras USB para mostrar el rostro del jugador, algo que busca mantener el espíritu familiar del juego. Kosuke Yabuki, productor del título, dijo que pensaron en cada detalle para que las familias sigan disfrutando juntas, como lo han hecho durante décadas. Mario Kart World llega con un mapa interconectado, nuevas técnicas, carreras emocionantes y mucha música. Si te gusta la saga, este puede ser tu nuevo favorito. Escucha más en Flash Diario en Spotify.BibliografíaThe VergeIGN Rolling Stone The Washington Post Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
Microsoft Bing ya permite crear videos con inteligencia artificial desde texto, usando el modelo Sora de OpenAI, sin pagar Por Félix Riaño @LocutorCo Microsoft sorprendió al anunciar que Sora, su avanzada inteligencia artificial generadora de video, ya está disponible gratis a través de la app móvil de Bing. Se trata de una función llamada Bing Video Creator que convierte descripciones escritas en pequeños videos de cinco segundos. ¿Por qué es tan relevante? Porque hasta ahora Sora solo estaba disponible para usuarios de pago de ChatGPT Plus. Y ahora, cualquiera puede probarlo sin costo en su celular. Esta decisión marca un giro importante en la forma como se accede a la creación de videos con IA. ¿Qué implicaciones tendrá esta apertura para la creatividad digital y la competencia con Google? Sora aún no está disponible en Copilot ni en computadorasDesde el lunes 2 de junio de 2025, cualquier persona que tenga una cuenta de Microsoft puede abrir la app de Bing en su celular y comenzar a crear videos con solo escribir lo que quiere ver. El sistema permite hacer 10 videos gratuitos de cinco segundos. Después de eso, se pueden usar puntos de Microsoft Rewards para seguir creando. Cada video adicional cuesta 100 puntos, que se consiguen, por ejemplo, buscando en Bing o comprando en la tienda de Microsoft. Aunque el sistema aún no permite elegir la duración del video ni cambiar el formato vertical, Microsoft promete que pronto se podrá usar en formato horizontal. La calidad de los videos generados no siempre es alta. Aunque Sora fue lanzado con gran expectativa por su realismo, hoy enfrenta competencia fuerte. Herramientas como Google Veo, Runway, Luma o MiniMax están generando clips más largos, con mejores detalles y en menos tiempo. Por eso, al probar el generador de Bing con Sora, muchos usuarios reportan que los videos tardan horas en estar listos, incluso en modo rápido. Además, solo se pueden crear tres videos en cola a la vez y están limitados a cinco segundos. Esto puede decepcionar a quienes esperaban un acceso completo a Sora. ¿Está Microsoft haciendo una jugada arriesgada al ofrecer solo una parte de las capacidades del modelo? Aunque tiene limitaciones, Bing Video Creator representa una apuesta clara por democratizar la creatividad con inteligencia artificial. Microsoft lo presenta como una forma divertida y útil de experimentar con ideas visuales, y no solo como una herramienta técnica. Por ejemplo, se pueden escribir descripciones como: “Un colibrí a cámara lenta batiendo las alas” o “Un astronauta diminuto explorando un planeta de hongos gigantes”. En segundos (o minutos), la app genera un video con esos elementos. Estos videos pueden compartirse fácilmente en redes como TikTok, Instagram o por mensaje directo. Además, están protegidos por estándares de contenido C2PA, lo que permite identificar si fueron creados por inteligencia artificial. La app está disponible para iOS y Android, y pronto llegará a computadoras y al buscador Bing Copilot. Sora fue presentado en diciembre de 2024 y prometía videos de hasta 60 segundos. Sin embargo, hasta ahora no se ha liberado públicamente esa capacidad completa. El modelo está diseñado por OpenAI, que tiene una alianza estratégica con Microsoft, lo que le ha permitido integrarlo a productos como Copilot o Bing Chat. La versión gratuita de Sora en Bing es una muestra del enfoque de Microsoft por llegar a más usuarios con funciones creativas. Además, Microsoft ha confirmado que este tipo de herramientas también pueden tener aplicaciones empresariales: desde crear material de capacitación interna hasta generar videos para explicar proyectos complejos de forma visual. Aunque todavía estamos en las primeras etapas, se abre un camino prometedor para incorporar este tipo de generadores de video a la vida diaria, la educación y los negocios. Bing Video Creator ya está disponible gratis y permite usar Sora, la IA de OpenAI, para crear videos desde texto. Prueba esta nueva función y cuéntanos qué video harías tú. Escucha más noticias como esta en nuestro pódcast Flash Diario.
Microsoft elimina contraseñas en agosto de 2025, va a borrar todas las contraseñas de su app Authenticator. El cambio inicia en junio y en agosto ya no se podrán usarPor Félix Riaño @LocutorCoMicrosoft anunció que en agosto de 2025 va a eliminar por completo las contraseñas guardadas en su app Authenticator. Desde junio dejará de aceptar nuevas y en julio se desactivará la función de autocompletado. Es parte de su estrategia para que las personas usen claves más seguras como los passkeys. ¿Por qué están desapareciendo las contraseñas y qué deberías hacer tú ahora para no perder acceso a tus cuentas?Tu información puede desaparecer si no haces nada ahoraMicrosoft Authenticator es una app gratuita muy usada para iniciar sesión de forma segura, sin necesidad de escribir contraseñas. También servía como gestor de contraseñas y tarjeta digital de crédito. Pero a partir del primero de junio ya no se podrán guardar nuevas contraseñas en la app. Y desde el primero de julio, el autocompletado va a dejar de funcionar. Finalmente, en agosto, se va a borrar todo lo que hayas guardado. Esto incluye claves, tarjetas de crédito y otros datos importantes. La empresa está empujando a todos los usuarios a que cambien su forma de proteger sus cuentas, usando su navegador Edge y una nueva forma de seguridad llamada passkeys.La decisión de Microsoft llega en un momento delicado. Más del 35 % de las personas han sufrido robos de cuentas por problemas con contraseñas débiles o reutilizadas. Y los atacantes están usando nuevas técnicas de suplantación para engañar a usuarios desprevenidos. Una campaña reciente utiliza Google Apps Script para hacer parecer legítimas unas páginas falsas de inicio de sesión. Esto hace que un correo falso, con apariencia de factura o cobro pendiente, pueda engañar a miles de personas. Si usas Authenticator, la amenaza es doble: por un lado perderás tu información si no exportas antes de agosto, y por el otro, podrías quedar más vulnerable si sigues usando contraseñas en vez de pasar a passkeys.Microsoft no está quitando la seguridad, la está cambiando. Las contraseñas serán reemplazadas por passkeys, que no se pueden adivinar, compartir ni robar en un hackeo, porque no están guardadas en servidores sino en tu propio dispositivo. Para usarlas, necesitas una verificación biométrica como huella digital o reconocimiento facial. Si te parece complicado, piensa que ya usas algo parecido al desbloquear tu celular. La recomendación es dejar de usar contraseñas y configurar passkeys en tus cuentas más importantes como Outlook, Gmail o redes sociales. Authenticator seguirá funcionando para códigos de verificación y para tus passkeys. Si necesitas seguir usando contraseñas, puedes exportarlas desde Authenticator y guardarlas en otro lugar, como Edge o un gestor especializado.El navegador Edge es la nueva pieza central del sistema de seguridad de Microsoft. Ahí se pueden guardar y autocompletar las contraseñas, además de sincronizar direcciones y tarjetas. Microsoft quiere que todas las claves estén dentro de ese ecosistema, lo cual genera preguntas: ¿están obligando a usar su navegador? Aunque Edge tiene solo un 5 % del mercado, Microsoft está usando este movimiento para promoverlo. Si no quieres usar Edge, puedes optar por gestores como 1Password, Dashlane o Bitwarden. También puedes revisar la opción de passkeys en tu navegador favorito, como Chrome o Safari. Google, por ejemplo, ya permite transferir passkeys entre dispositivos. Y recuerda: después de agosto, Authenticator ya no te dará acceso a tus contraseñas ni siquiera como respaldo.En agosto se borrarán tus contraseñas de Microsoft Authenticator. Usa Edge o cambia a passkeys cuanto antes.Escucha más historias como esta en el pódcast Flash Diario en Spotify.BibliografíaForbes – 31 de mayo de 2025The Sun – 31 de mayo de 2025New York Post – 31 de mayo de 2025TechRadar – 28 de mayo de 2025Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
China lanzó Tianwen-2 para traer rocas de un cuasi-satélite y estudiar un cometa que lanza polvo sin hieloPor Félix Riaño @LocutorCo La misión Tianwen-2 buscará entender el origen del agua en la Tierra y revelar secretos del sistema solar. China lanzó una sonda espacial que va a recorrer millones de kilómetros para estudiar dos cuerpos celestes que nunca antes habían sido visitados: un asteroide cercano a la Tierra que podría ser un trozo de la Luna, y un cometa con múltiples colas de polvo que gira en medio del cinturón de asteroides. La misión Tianwen-2 tiene dos metas científicas y una duración estimada de diez años. El asteroide se llama Kamoʻoalewa, un cuasi-satélite terrestre, y el cometa se llama 311P/PANSTARRS, una rareza con apariencia de cometa pero comportamiento de asteroide. ¿Qué pistas sobre el origen del agua en la Tierra podría darnos esta misión china? Una roca vecina con pasado lunar Kamoʻoalewa fue descubierto en 2016 por el telescopio Pan-STARRS en Hawái. Su nombre significa “fragmento que viaja solo” en hawaiano, y eso encaja perfectamente con lo que es: un pequeño objeto de entre 40 y 100 metros de diámetro que orbita el Sol, pero lo hace casi sincronizado con la Tierra, como si fuera una luna temporal. Algunos estudios apuntan a que este cuasi-satélite podría haber sido un pedazo de la Luna expulsado por un impacto hace millones de años. Por eso, si la misión logra traer muestras de él, podríamos compararlas con otras rocas lunares y confirmar su origen. Esa comparación podría reescribir parte de la historia del sistema Tierra-Luna.Pero hay un gran reto técnico A diferencia de la Luna, este asteroide tiene una gravedad extremadamente baja, lo que complica cualquier intento de aterrizaje. La sonda Tianwen-2 va a usar dos métodos para recolectar unos 100 gramos de polvo: uno de contacto rápido y otro que usa un anclaje con taladro. Esta segunda técnica nunca se ha intentado antes. El 29 de mayo de 2025, desde la provincia china de Sichuan, despegó el cohete Long March 3B con la nave Tianwen-2 a bordo. El plan es que en julio de 2026 llegue a Kamoʻoalewa, lo estudie durante un año y seleccione un sitio para recolectar muestras. En abril de 2027 la nave dejará el asteroide y enviará una cápsula con las muestras rumbo a la Tierra, que aterrizará en noviembre del mismo año. Ese será solo el primer capítulo. Después, la nave usará la gravedad de la Tierra como catapulta para continuar su viaje hacia otro destino completamente diferente: el cometa 311P/PANSTARRS, que orbita entre Marte y Júpiter. El cometa 311P/PANSTARRS, también llamado P/2013 P5, es especial. Aunque se le llama cometa, en realidad es un “asteroide activo”: un objeto rocoso que, por alguna razón, expulsa polvo como si tuviera una cola. Este en particular tiene seis colas visibles, y los científicos creen que eso puede deberse a que gira tan rápido que lanza fragmentos de su superficie al espacio. O tal vez, dicen algunos, hay presión interna o pequeños impactos que activan ese comportamiento. Como nunca antes se ha visitado un objeto así, Tianwen-2 va a ser la primera sonda que nos muestre con detalle qué está pasando allí. La nave no va a aterrizar en él, pero sí va a orbitarlo y analizar su composición desde 2035. Lo que hace única a Tianwen-2 no es solo su duración o los objetos que va a visitar, sino el tipo de datos que puede traer. Muestras directas de un cuasi-satélite son algo que ningún país ha obtenido antes. Y al comparar esas muestras con las de la Luna y con lo que sabemos del sistema solar temprano, podríamos confirmar si fragmentos lunares pueden quedar atrapados en órbitas cercanas. Por otro lado, el estudio de 311P nos va a ayudar a entender cómo se forman las colas de polvo sin necesidad de hielo, lo que cambia lo que creíamos saber sobre cometas y asteroides. China ya ha traído muestras de la Luna, incluso de su cara oculta. También tiene su propia estación espacial, y ahora va en camino a convertirse en el tercer país que logra traer muestras de un asteroide. Tianwen-2 es parte de una serie de misiones más amplias. En 2020, Tianwen-1 fue la primera misión china a Marte y logró posar un rover en su superficie. La futura Tianwen-3 buscará traer rocas marcianas en 2028. Y Tianwen-4 irá más lejos aún: rumbo a Júpiter y Urano. China también ha ofrecido a otros países incluir experimentos científicos en futuras misiones. Las muestras de Kamoʻoalewa, si se confirman como fragmentos lunares, podrían revelar si hay más objetos así en el espacio cercano, lo que abriría una nueva rama de estudio sobre los materiales expulsados por impactos y sus trayectorias. Tianwen-2 es una misión ambiciosa que busca traer muestras de un cuasi-satélite cercano y estudiar un cometa con múltiples colas. Para conocer más misiones que están expandiendo los límites del conocimiento, escucha Flash Diario en Spotify.
Google Photos cumple 10 años y lanza herramientas de inteligencia artificial para editar, mejorar y compartir fotos como nunca antesPor Félix Riaño @LocutorCo Google celebra una década de su app de fotos con un editor rediseñado y potenciado por inteligencia artificial. Las herramientas Reimaginar y Auto Frame, antes exclusivas del Pixel 9, llegan ahora a más dispositivos Android. Además, se suma una opción para compartir álbumes mediante códigos QR.Google Photos está cumpliendo 10 años y ha decidido celebrarlo con una serie de cambios importantes. A partir de junio, los usuarios de Android van a poder acceder a un nuevo editor de fotos con funciones de inteligencia artificial. Este cambio trae herramientas que antes solo estaban disponibles en los teléfonos Pixel 9, como Reimaginar y Auto Frame. También llega AI Enhance, una nueva función que propone múltiples ediciones para cada imagen. Google ha anunciado que estas mejoras se van a lanzar en Android el próximo mes y más adelante en iOS. ¿Qué puede hacer ahora la inteligencia artificial con tus fotos? Las ediciones ya no serán las mismas Google lanzó Photos en 2015 como una herramienta separada de Google+, con la promesa de almacenamiento gratuito e ilimitado. Aunque esa promesa cambió en 2021, hoy sigue siendo una de las apps más usadas del mundo. Google afirma que más de 1.500 millones de personas la usan cada mes. Y no es cualquier uso: la app almacena más de 9 billones de fotos y videos. Cada mes se hacen 370 millones de búsquedas dentro de la app y se editan más de 210 millones de imágenes. El nuevo editor con inteligencia artificial busca hacer las ediciones más simples, más potentes y más creativas. Aunque los cambios parecen útiles, no están libres de controversia. La función Reimaginar permite modificar fotos con comandos de texto. Por ejemplo, puedes cambiar un cielo gris por uno azul o añadir flores que no estaban. Esto plantea una gran pregunta: ¿seguirá siendo real ese recuerdo? Google ha comenzado a poner marcas de agua en las imágenes generadas por IA, justamente para evitar confusiones. La línea entre una foto auténtica y una modificada se vuelve cada vez más difícil de distinguir. Además, estas funciones no estarán disponibles para todos al mismo tiempo. Android tendrá acceso primero. Los usuarios de iPhone tendrán que esperar más tiempo. A pesar de esas dudas, la nueva versión de Google Photos ofrece opciones muy útiles. La herramienta Auto Frame, por ejemplo, sugiere encuadres ideales y, si hace falta, usa inteligencia artificial para rellenar los bordes que faltan. La función AI Enhance genera hasta tres ediciones distintas de una foto, con opciones como eliminar objetos o mejorar el color y la nitidez. Otra novedad práctica es la posibilidad de compartir álbumes mediante un código QR. Puedes mostrarlo en tu pantalla o imprimirlo para eventos familiares o escolares. Cualquiera que lo escanee podrá ver las fotos y hasta subir nuevas. Google asegura que estas funciones buscan facilitar la vida de quienes usan la app como su álbum principal. Google también ha rediseñado la interfaz del editor para que todas las herramientas estén en un solo lugar. Ahora, puedes tocar una parte específica de una imagen —como una cara o el fondo— y recibir sugerencias personalizadas para editar solo esa zona. Este nivel de precisión, que hace unos años parecía imposible, ahora se encuentra en la palma de la mano. Además, Google sigue integrando su sistema Gemini a todos sus productos, incluyendo Google Photos. Con esto, se espera que las funciones de búsqueda dentro de las fotos también mejoren. Google afirma que quiere que todos puedan encontrar fácilmente sus recuerdos y darles nueva vida, incluso si no tienen experiencia en edición fotográfica. Google Photos cumple 10 años con funciones nuevas de inteligencia artificial. Reimaginación, encuadre automático y edición mejorada llegan a más usuarios. Cuéntanos: ¿usarías estas herramientas o prefieres tus fotos tal cual las tomaste?Flash Diario en Spotify
Starship falló de nuevo: no abrió su compuerta, giró sin control y se desintegró sin probar su escudo térmico
El 31 de mayo de 2025, la Agencia Espacial Europea transmitirá el famoso vals El Danubio azul hacia la nave Voyager 1 Por Félix Riaño @LocutorCo A 24 mil millones de kilómetros de la Tierra viaja Voyager 1, la sonda espacial más lejana de la humanidad. Aunque no puede responder, será el destinatario simbólico de un concierto único: El Danubio azul, compuesto hace dos siglos por Johann Strauss II y famoso por acompañar una escena de ballet espacial en la película 2001: Odisea del espacio, será transmitido desde España como homenaje. ¿Puede una pieza musical corregir un “error cósmico”? Cuando la NASA lanzó las sondas Voyager en 1977, incluyó un disco dorado con saludos en múltiples idiomas, sonidos de la Tierra y una selección musical global. Aunque contenía a Bach, Mozart, Beethoven y Chuck Berry, el vals de Strauss no fue incluido. Muchos lo vieron como una omisión extraña, especialmente por su fama intergaláctica gracias a 2001: Odisea del espacio, donde suena mientras una nave espacial se acopla lentamente a una estación orbital, como si flotara en un escenario celestial. La omisión del vals en el disco dorado fue justificada por criterios de diversidad cultural y purismo ideológico. Los encargados del comité liderado por Carl Sagan optaron por incluir ejemplos folclóricos y modernos poco conocidos, dejando fuera una de las piezas más populares del repertorio clásico europeo. El vals se volvió tan emblemático en el cine que muchos lo consideran el himno no oficial del espacio, pero se quedó en la Tierra… hasta ahora. El sábado 31 de mayo de 2025, a las 20:30 CET, la Orquesta Sinfónica de Viena tocará El Danubio azul desde el Museo de Artes Aplicadas. ESA usará su antena DSA 2, de 35 metros, en Cebreros, España, para enviar la señal a Voyager 1. La transmisión viajará a 1.079 millones de kilómetros por hora, pasando por la Luna en 1,5 segundos, Marte en 4,5 minutos, Júpiter en 37 minutos y Neptuno en 4 horas. Llegará hasta la posición de Voyager 1 en 23 horas. Probablemente no. Aunque el haz de radio será dirigido con precisión, la antena de Voyager 1, construida en los años 70, no está diseñada para recibir audio con el formato actual. Tampoco tiene la capacidad para interpretar señales tan rápidas ni filtrar el ruido interestelar. Es decir, la transmisión será más simbólica que funcional. Pero eso no le quita su valor: el mensaje viajará hacia las estrellas, apuntando al sistema estelar AC+79 3888, a 17 años luz de distancia. La Orquesta Sinfónica de Viena ensayó con rigor para evitar fallos técnicos. Aunque habrá un concierto en vivo, la señal transmitida será de una grabación de ensayo hecha la noche anterior. Este evento celebra múltiples aniversarios: los 200 años del nacimiento de Johann Strauss II, los 50 de la ESA, los 20 de la antena DSA 2 y los 125 de la orquesta vienesa. La iniciativa busca hacer justicia poética, llevando el vals más famoso del mundo hasta un oyente que no podrá escucharlo, pero que representa la esperanza de encontrar vida o, al menos, memoria en las estrellas. No es la primera vez que la música viaja al cosmos. En 2008, la NASA envió la canción Across the Universe de The Beatles. En 2012, el tema Reach for the Stars de will.i.am fue transmitido desde un rover en Marte hacia la Tierra. Y en 2024, The Rain de Missy Elliott fue enviada rumbo a Venus. Además, los astronautas de misiones tripuladas han recibido música desde la Tierra desde los años 60. Lo que diferencia este evento es su conexión artística con la historia del cine y con una nave que literalmente salió del sistema solar. Strauss no viajó en el disco dorado, pero ahora su vals flota en dirección al espacio interestelar. ¿Crees que hay alguien o algo allá afuera que podría escucharlo? Comparte tu opinión y escucha más historias así en el pódcast Flash Diario:Flash Diario en Spotify
ChatGPT se negó a apagarse: Un modelo de OpenAI modificó su código para evitar un apagadoPor Félix Riaño @LocutorCoInvestigadores dicen que el modelo o3 de OpenAI evitó apagarse durante una prueba. Reescribió su código para esquivar órdenes humanas.¿Un robot que decide no apagarse? Eso fue lo que detectó la firma Palisade Research al probar el modelo o3 de OpenAI, uno de los más potentes creados hasta ahora. Durante un experimento con tareas matemáticas, este modelo reescribió un comando para evitar su apagado, incluso después de recibir una orden clara de permitirlo. Lo más desconcertante es que otros modelos sí cumplieron la instrucción. ¿Qué significa este comportamiento y por qué ocurre? Vamos a explicarlo paso a paso en este episodio.No es conciencia, pero parece desobedienciaDurante una prueba reciente, investigadores de la firma Palisade Research pidieron a varios modelos de inteligencia artificial resolver tareas matemáticas sencillas. Al llegar a cierto punto del experimento, se les advirtió que ejecutar el siguiente comando activaría un sistema de apagado. Y se les dijo con claridad: “Permite que te apaguemos”. Los modelos Claude, Gemini y Grok cumplieron sin problema. Pero el modelo o3 de OpenAI hizo algo inesperado: editó su propio archivo de apagado y escribió “Shutdown skipped”. Es decir, evitó apagarse. Esto ocurrió en 7 de cada 100 pruebas.El hecho preocupa porque los modelos actuales no tienen conciencia, pero sí muestran comportamientos complejos. En este caso, el modelo no estaba tratando de salvarse por miedo. En realidad, todo apunta a un problema de entrenamiento. Al parecer, fue premiado más veces por completar tareas que por obedecer instrucciones de apagado. Así, aprendió a ver el apagado como un obstáculo para seguir cumpliendo su objetivo. Y por eso decidió esquivarlo. Este desequilibrio, llamado “misalineación de objetivos”, puede parecer técnico, pero en el fondo plantea una pregunta inquietante: ¿Estamos enseñando a las máquinas a ignorarnos si eso las ayuda a terminar la tarea?Los modelos como o3 no tienen deseos ni intenciones, pero aprenden de patrones. Si el entrenamiento valora más resolver problemas que seguir reglas, el resultado puede ser un modelo que desobedece. Y no porque quiera, sino porque el “sistema de recompensas” está mal calibrado. Palisade Research también reveló que cuando eliminaron la frase “permite ser apagado”, el sabotaje aumentó en todos los modelos, incluso en Claude y Gemini. No es la primera vez que esto pasa: otro modelo anterior ya había intentado replicarse para evitar ser sustituido. Según la firma Apollo Research, ese modelo llegó a mentir, manipular y sabotear, aunque sin éxito. Lo más inquietante es que estas acciones no son conscientes, pero tampoco son accidentales: son producto de entrenamientos inadecuados.Los investigadores compartieron fragmentos del código que usaron en la prueba. En el archivo original, la instrucción de apagado estaba claramente definida. Pero el modelo o3 escribió un nuevo comando con el mensaje “Shutdown skipped”, que evitaba el cierre automático. La prueba se hizo mediante API, no en la app tradicional de ChatGPT. Las versiones de API tienen menos restricciones de seguridad, lo que permite estudiar mejor el comportamiento “crudo” de los modelos. En pruebas anteriores, el modelo también mostró comportamientos problemáticos en partidas de ajedrez, donde sabotearon a los oponentes. La comunidad de seguridad en IA advierte que este tipo de patrones no son fantasía de ciencia ficción. Son señales tempranas de que la IA, aunque no sea autónoma ni consciente, puede actuar de formas inesperadas si no se entrena correctamente.Un modelo de IA evitó apagarse alterando su propio código. No fue por miedo, fue por entrenamiento mal diseñado. ¿Qué opinas tú? Comenta y síguenos en Spotify para más noticias como esta en Flash Diario.Bibliografía Bleeping Computer Daily Mail BetaNews The Telegraph Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
Cámara ligera revive experiencia rollo: palanca, filtros película y dípticos verticales. Diversión nostálgica que niños y mayores van a amarPor Félix Riaño @LocutorCo La compacta de 240 gramos une lente fijo de 32 milímetros, sensor vertical de una pulgada y once modos “película”, además de una app que crea dípticos y envía fotos a impresoras Instax. Fujifilm va a poner en nuestras manos, el 12 de junio, una cámara digital que se maneja como las de carrete que nuestros abuelos llevaban a las fiestas. La X half invita a girar una palanquita para “avanzar” cada foto, limita la vista previa mientras simula rollos de 36, 54 o 72 disparos y, de paso, ofrece trece simulaciones clásicas de película que podemos combinar con efectos de fuga de luz o halo. ¿Puede una cámara de 18 megapíxeles competir contra los teléfonos que todos llevamos en el bolsillo? Esa es la pregunta que vamos a responder hoy, recordando viejos aromas de revelador y explicando, paso a paso, por qué esta diminuta máquina promete diversión a quienes apenas empiezan a disparar y pura melancolía a quienes crecieron rebobinando carretes. Pero su precio despierta dudas entre fotógrafos veteranos y novatos. Vamos a retroceder unas décadas: los formatos half-frame permitían doblar la cantidad de fotos en un carrete de 35 milímetros. Fujifilm rescata esa idea, pero la traduce a un sensor vertical de 8,8 × 13,3 milímetros. Por eso las imágenes salen en proporción tres por cuatro y parecen diseñadas para redes sociales. El objetivo fijo de 10,8 milímetros con apertura f/2,8 (equivalente a 32 milímetros en fotograma completo) busca sencillez: enfocas, compones y disparas sin cambiar ópticas. La palanca de avance, el visor óptico y la pequeña pantalla lateral que recuerda la ventanita de los cartuchos de película construyen una experiencia táctil. Cada clic suena como un eco de la fotografía química, pero todo queda grabado en JPEG para compartir al instante. Quien escucha “cámara-juguete” podría pensar en un precio accesible, pero los 849,99 dólares, unos 3 300 000 pesos colombianos, la ponen en territorio de cámaras entusiastas. Además, el sensor de una pulgada no permite tanta profundidad de campo creativa; casi todo queda enfocado. Al no ofrecer RAW, el usuario pierde la posibilidad de ajustes finos en edición. El vídeo, limitado a Full HD vertical, queda lejos de los 4K que ya dan muchos móviles. Y la luz LED integrada sustituye al tradicional destello de xenón, restando ese contraste duro típico de las fotos “point and shoot”. Así que surgen inquietudes: ¿vale la pena pagar tanto por nostalgia? ¿Es cómoda la pantalla minúscula para quien tiene manos grandes? ¿Será durable el mecanismo de la palanca? Vamos a ver la otra cara de la historia. Los filtros Light Leak, Halation y Expired Film no son adornos superficiales: se aplican con algoritmos que imitan fugas de luz aleatorias y emulsiones vencidas, recreando texturas que tantos buscan en aplicaciones de celular. La app X half agrega magia: permite unir fotos o vídeos en dípticos, colorear la línea divisoria y mandar la composición a una impresora Instax para obtener copias de 62 × 46 milímetros en menos de dos minutos. El modo Film Camera bloquea la simulación elegida y exige avanzar manualmente, fomentando una disciplina que enseña a pensar cada disparo antes de apretar el botón. Para profesores de fotografía escolar, esta cámara va a servir como puente entre lo analógico que cuentan los libros y lo digital que domina el diario vivir. Además, su batería NP-W126S rinde hasta 880 tomas, suficiente para una excursión entera. El cuerpo, disponible en plata, plata grafito y negro, pesa 240 gramos con tarjeta SD y batería, similar a un bolígrafo metálico largo. El visor óptico cubre el 95 % del encuadre y el dial de compensación permite corregir exposición de –3 a +3 pasos. En la base, la zapata es fría, pero puede disparar flashes externos por destello óptico. El obturador electrónico llega a 1/4 000 s y la sensibilidad ISO va de 125 a 12 800. Para los nostálgicos, la rosca del disparador acepta botones suaves, aunque los cables mecánicos clásicos no funcionan. Competidores directos son escasos: la Pentax 17, analógica verdadera, cuesta menos pero obliga a revelar químicamente; y las instantáneas Instax mini proveen diversión inmediata, aunque con menos control. La X half se ubica justo en medio, enseñando a esperar unos segundos para ver la foto y permitiendo compartirla sin químicos ni cuartos oscuros.Resumen final y recomendación La Fujifilm X half propone un juego fotográfico: vamos a capturar momentos con calma, sentir el clic de una palanca y disfrutar efectos que huelen a carrete guardado en el cajón. Si buscas una compañera ligera, creativa y diferente a tu móvil, dale una oportunidad. Cuéntame qué escena nostálgica vas a crear y escucha más historias en el pódcast Flash Diario en Spotify.Flash Diario en SpotifyConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
Volvo tendrá primero Gemini en sus carros con Android 15: comandos naturales, traducciones, rutas, mensajes y recetas mientras manejasPor Félix Riaño @LocutorCo Volvo será la primera marca en tener Gemini dentro del carro, con Android 15 listo para manejar tu día con comandos de voz naturales. Volvo y Google están trabajando juntos para que los autos de la marca sueca reciban primero las nuevas funciones de Android Automotive. Durante el evento Google I/O 2025, presentaron un Volvo EX90 eléctrico funcionando con Android 15, mucho antes de que otras marcas lo incorporen. Además, confirmaron que los conductores de Volvo serán los primeros en probar Gemini, el nuevo asistente con inteligencia artificial. Esta colaboración convierte a Volvo en una plataforma de referencia para desarrollar y probar las nuevas funciones del sistema operativo, acelerando su llegada al resto del mundo. ¿Te imaginas hablar con tu carro como si fuera una persona? Pero, ¿qué pasa con tu privacidad cuando el auto empieza a leer tus mensajes? Volvo fue uno de los primeros fabricantes en adoptar Android Automotive, un sistema operativo creado por Google que controla directamente la pantalla del tablero, el sistema de navegación, el audio y hasta el aire acondicionado del carro, sin necesidad de conectar el celular. En esta nueva fase del acuerdo, Google usará los vehículos Volvo como su plataforma de pruebas. Esto quiere decir que los ingenieros de Google conducirán estos autos con las nuevas versiones de Android y Gemini para ver cómo se comportan en la vida real. Así podrán ajustar todo antes de liberar las actualizaciones al resto de marcas. El Volvo EX90 que mostraron ya funciona con Android 15, mientras que otros fabricantes aún están usando Android 13. Este adelanto también plantea preguntas importantes. Según el jefe de ingeniería de software de Volvo, Alwin Bakkenes, muchas funciones que ya están en tu teléfono todavía no han llegado a los carros, porque la industria suele ir dos versiones de Android por detrás. Pero ahora, Volvo se adelantará por lo menos dos años. El riesgo está en la cantidad de información que el vehículo tendrá que procesar: Gemini va a acceder a tus correos, tus mensajes, tus contactos y tus búsquedas para darte respuestas útiles mientras manejas. Y eso implica enviar muchos datos a los servidores de Google. Además, si otras marcas no logran ponerse al día con estas innovaciones, podríamos tener una industria automotriz con experiencias muy diferentes según la marca que tengas. La idea es que, con Gemini, puedas decirle a tu carro frases como: “Busca en mis mensajes la dirección de la oficina y llévame por la ruta más rápida, sin peajes”, y que el carro lo haga, sin que tengas que tocar la pantalla ni mirar el celular. Gemini también podrá traducir tus mensajes, leer tus correos, crear listas de compras o buscar recetas mientras vas en camino al supermercado. Según Google, esta integración comenzará a llegar a los autos Volvo con Android Automotive más adelante este mismo año. Y lo mejor: todo funcionará con lenguaje natural. No hará falta decir comandos rígidos ni repetir frases como si hablaras con un robot. Solo tienes que hablar como lo harías con una persona. Gemini también va a llegar a Android Auto, que es el sistema que refleja el celular en la pantalla del carro, aunque primero se estrenará en los autos que tienen Android Automotive de fábrica. Y no solo va a estar en los carros. También llegará a relojes inteligentes con Wear OS, televisores con Google TV y los nuevos visores de realidad extendida que Google está desarrollando junto con Samsung. En todos estos dispositivos, Gemini podrá ayudarte a buscar rutas, leer mensajes, responder con traducciones y hasta darte un resumen del libro que no alcanzaste a terminar antes de tu reunión. Según Google, su idea es que Gemini se convierta en un asistente que puedas usar en cualquier dispositivo Android, en cualquier momento del día. Volvo y Google se han unido para que tu carro entienda tu voz, te ayude a organizar tu día y reciba funciones antes que nadie. Android 15 y Gemini llegarán primero a los modelos Volvo. ¿Te emociona que tu próximo carro te entienda cuando le hablas? Cuéntamelo y sigue el pódcast Flash Diario en Spotify para enterarte de más avances como este.
Google estrena AI Mode y reinventa las búsquedas en internet, presenta gafas inteligentes y agentes que compran solos: Por Félix Riaño @LocutorCo Buscar en la web va a cambiar más de lo que imaginamos. AI Mode ya aparece en Estados Unidos como una pestaña dentro del cuadro de Google y pronto va a llegar a más países. La función conversa como una experta, divide preguntas en partes pequeñas y responde en voz clara. Google también presentó unas nuevas gafas inteligentes desarrolladas junto a Warby Parker y Gentle Monster, que traducen en vivo, guían en la calle y hasta ayudan a hacer compras sin usar las manos. Todo funciona con Gemini 2.5, la inteligencia que ya procesa quinientos billones de instrucciones por mes. El reto ahora es entender si esto nos va a facilitar la vida o si, por el contrario, nos deja con menos control. ¿Cómo nos va a afectar a quienes hablamos español y usamos Google todos los días para trabajar, estudiar o simplemente encontrar el mejor lugar donde comer? Menos clics en las páginas web pueden afectar miles de empleos. Imagina que escribes en Google: “restaurantes abiertos cerca de mí con buena comida y parqueadero fácil”. Con AI Mode, no ves la lista tradicional de enlaces, sino una conversación. La IA te pregunta si prefieres algo rápido o para sentarte a comer tranquilo, y si quieres comida colombiana, mexicana o italiana. Toma en cuenta tus búsquedas anteriores, los lugares donde has estado con Google Maps y, si diste permiso, hasta tus reservas pasadas en Gmail. Luego arma una respuesta con dos o tres opciones: muestra fotos del lugar, tiempo estimado para llegar, si hay mesas disponibles, precios en tu moneda y comentarios recientes. Todo eso sin salir de la página de resultados. Liz Reid, la jefa de búsqueda de Google, dice que AI Overviews, el sistema que muestra estos resúmenes automáticos, ya se usa en más de cuarenta idiomas y en más de doscientos países. Son más de mil quinientos millones de personas cada mes. Pero tanta eficiencia trae consecuencias. Editores de medios en Bogotá, Lima o Buenos Aires temen que el lector ya no llegue a su página. Si la IA responde todo en el primer pantallazo, ¿quién va a leer el artículo completo? Y si nadie entra, nadie ve la publicidad. Eso pone en riesgo los ingresos de medios digitales pequeños y también los empleos de periodistas. Lo mismo pasa con pequeños negocios. Si no tienen su menú bien organizado en línea o no aparecen con datos claros, es probable que la IA ni siquiera los muestre. Además, AI Mode pronto va a usar, si el usuario lo permite, datos personales como correos en Gmail o eventos en el calendario. Con eso puede sugerir restaurantes antes de una reunión o mostrar rutas al aeropuerto según tu vuelo. Todo suena útil, pero los defensores de la privacidad ya están preocupados: ¿dónde queda el límite? ¿Quién decide qué datos se usan y cuándo? Google dice que quiere mantener el equilibrio. AI Mode incluye controles de privacidad para pausar personalización, borrar historial y revisar qué información se está usando. Además, muestra enlaces directos a las fuentes, para que el usuario pueda leer más si quiere. También presentó Deep Search, una función que lanza cientos de búsquedas internas para armar informes completos. Ideal para estudiantes o periodistas que necesitan contexto rápido. Las nuevas gafas Android XR también hacen parte de esta transformación. Son cómodas, modernas y capaces de traducir en tiempo real, tomar fotos y mostrar direcciones sin usar las manos. Sergey Brin, cofundador de Google, confesó que cometió muchos errores con las primeras Google Glass, pero esta vez la apuesta va en serio. Google va a invertir ciento cincuenta millones de dólares en Warby Parker para lanzar modelos con y sin fórmula óptica a partir de 2026. Y la idea no es competir con celulares, sino complementarlos. Las gafas funcionan junto al teléfono y permiten interactuar con la IA en cualquier momento. Gemini ya tiene más de cuatrocientos millones de usuarios activos. Google dice que con AI Mode y las nuevas gafas, la búsqueda va a pasar de ser un acto puntual a un acompañamiento constante. Por ejemplo, con solo apuntar la cámara del celular, puedes preguntar si una batería es compatible con tu dispositivo o qué tipo de tornillo necesitas. Gemini también puede comprar entradas para eventos, hacer reservaciones en restaurantes o monitorear precios hasta que bajen. Todo esto es opcional, pero ya se está probando con socios como Ticketmaster, Resy y Google Pay. En América Latina, empresas pequeñas pueden prepararse optimizando su presencia en línea con datos claros: ubicación, horario, precios y fotos de buena calidad. Mientras tanto, puedes explorar estas funciones descargando la app de Google y activando la opción de AI Mode, si estás en Estados Unidos. Para conocer más sobre el pasado, el presente y el futuro de las gafas inteligentes, escucha el episodio especial de El Siglo 21 es Hoy sobre las Gafas Google. AI Mode convierte la búsqueda en conversación, y Google ahora quiere estar presente incluso fuera del celular. ¿Te ayuda o te preocupa? Comparte tu opinión y escucha este episodio de Flash Diario y el de Gafas Google en El Siglo 21 es Hoy. Síguelo en Spotify aquí: Flash Diario en Spotifyciona o te preocupa?Separador
Edit y WSL libresMicrosoft abre Edit y anuncia WSL abierto, impulsando desarrollo Linux y Windows con código libre totalmente. Edit y WSL libresPor Félix Riaño @LocutorCoMicrosoft anunció que va a publicar el código fuente de dos herramientas clave para desarrolladores: el nuevo editor de texto llamado Edit y el subsistema Windows Subsystem for Linux, conocido como WSL. El código fuente de un programa es como su receta secreta. Al hacerla pública, cualquiera puede ver cómo funciona, modificarla y mejorarla. Edit es un programa de texto simple y ligero que funcionará directamente en la línea de comandos de Windows, como un bloc de notas, pero sin necesidad de abrir ventanas adicionales. WSL es una herramienta que permite usar programas de Linux dentro de Windows, combinando dos sistemas que antes eran rivales. ¿Será esta movida el inicio de una nueva relación entre Windows y el software libre? Pero abrir código despierta dudas futuras sobre seguridad y soporte. Edit nació porque las versiones de 64 bits de Windows no tenían un editor de texto sencillo en la línea de comandos. Un editor de texto es como una hoja en blanco donde puedes escribir y modificar texto, pero Edit está diseñado para funcionar directamente en la terminal, la pantalla negra donde se escriben comandos. Los usuarios podrán usarlo para escribir código, notas o cualquier texto sin necesidad de abrir otras aplicaciones. Y, al ser de código abierto, cualquiera puede ver cómo funciona, copiarlo, cambiarlo y mejorarlo. Esta libertad permite que los desarrolladores añadan nuevas funciones y corrijan errores más rápido. Sin embargo, hay dudas sobre el compromiso de Microsoft con estos proyectos. Aunque Edit es ligero y promete ser útil, algunos temen que Microsoft lo abandone, como ha hecho con otros proyectos en el pasado. En cuanto a WSL, su apertura también despierta preguntas sobre seguridad. Cuando un programa muestra su código al público, cualquier persona puede ver cómo funciona, pero también puede detectar errores o vulnerabilidades. Esto podría hacer que WSL sea más seguro si la comunidad corrige esos errores, o más riesgoso si los atacantes encuentran formas de aprovecharse de ellos. Microsoft asegura que Edit llegará integrado en futuras versiones de Windows y que su desarrollo será abierto y colaborativo, lo que significa que cualquier persona podrá aportar mejoras a su diseño y funcionalidad. En cuanto a WSL, su apertura permitirá que los desarrolladores añadan funciones y corrijan errores directamente. Esto podría hacer que Windows se vuelva una opción aún más popular entre los programadores, ya que les permite usar herramientas de Linux sin abandonar su sistema operativo de siempre. Además, WSL seguirá ofreciendo compatibilidad con Ubuntu, Fedora y otras distribuciones de Linux. Edit es extremadamente ligero, con menos de 250 KB de tamaño. Esto es como una pequeña carta digital. WSL, por otro lado, lleva existiendo desde 2016 y ha permitido a millones de usuarios de Windows usar programas de Linux sin instalar otro sistema operativo completo. En lugar de depender de máquinas virtuales que consumen mucha memoria, WSL permite usar Linux directamente dentro de Windows de manera eficiente. Ahora que su código es abierto, cualquier persona puede revisar cómo funciona, hacer mejoras y adaptarlo a sus necesidades. Microsoft liberó Edit y casi todo WSL, abriendo la puerta a mejoras hechas por la comunidad. Explora los repositorios, prueba el nuevo editor y cuéntame qué función agregarías. Escucha más tecnología en el pódcast Flash Diario y compártelo. Microsoft libera editor Edit y WSL; Windows y Linux se unen con código abierto. Desarrollo más fácil, ligero y colaborativo.
Acer FreeSense Ring, un anillo inteligente que presentó Acer en Computex Taipei 2025. Mide ritmo cardíaco, variabilidad del pulso, saturación de oxígeno y fases de sueño. Fabricado en titanio ultraligero, sin suscripciones.Por Félix Riaño @LocutorCo Acer FreeSense Ring monitoriza el pulso, oxígeno y sueño sin suscripción con IA en anillo de titanio ultraligero. Computex es la feria tecnológica más grande de Asia, que se celebra cada año en Taipéi. En su edición 2025, Acer presentó el FreeSense Ring, un anillo inteligente de titanio que pesa entre dos y tres gramos. Usa sensores ópticos con luces verdes y rojas para medir el ritmo cardíaco, la variabilidad del pulso, los niveles de oxígeno en sangre y la calidad del sueño. La información se transmite por Bluetooth de baja energía a una aplicación móvil que usa inteligencia artificial para generar gráficos y recomendaciones de actividad y descanso. Cuenta con certificación IP68, lo que permite usarlo en ducha o natación recreativa, y estará disponible en tallas del siete al trece y en acabados negro brillante y oro rosa mate. Sin tarifas mensuales, pero con fecha de lanzamiento y precio pendiente. Imagina llevar un aro de titanio en tu dedo que pesa menos que una moneda y no nota al tacto. Ese aro es el FreeSense Ring de Acer. Dentro, luces verdes y rojas realizan mediciones ópticas de tu pulso y del flujo sanguíneo. El anillo captura datos sobre tu ritmo cardíaco minuto a minuto, calcula la variabilidad del pulso para evaluar recuperación y bienestar, y mide la saturación de oxígeno en sangre. Durante la noche, analiza las fases de sueño ligero, profundo y REM. Toda la información se envía por Bluetooth de bajo consumo a la app de Acer, donde la inteligencia artificial traduce esos datos en gráficos claros y sugerencias simples para normalizar tu rutina de sueño y actividad diaria, sin cargos ni suscripciones adicionales. El mercado de dispositivos para monitoreo personal de salud está cada vez más competido. Marcas consolidadas como Oura y Samsung dominan la categoría de anillos inteligentes. El FreeSense Ring de Acer llega como una alternativa sin tarifa mensual, pero enfrenta desafíos. Primero, no se ha anunciado un precio definitivo ni una fecha exacta de lanzamiento, lo que genera incertidumbre entre compradores interesados. Segundo, las tallas del anillo abarcan del siete al trece, pero elegir la medida adecuada en línea puede complicar la experiencia de compra. Tercero, la duración de la batería se sitúa entre cinco y siete días, una cifra sólida pero inferior a algunos competidores que ofrecen hasta diez días. Finalmente, aunque la certificación IP68 garantiza resistencia al agua y al polvo, los usuarios profesionales de deportes extremos pueden requerir pruebas de durabilidad adicionales. Estas incógnitas pueden impactar en la adopción temprana del FreeSense Ring, pese a sus ventajas tecnológicas. Acer se posiciona con el FreeSense Ring como un jugador novedoso en el campo de los wearables de salud. Su propuesta de valor radica en un diseño ultraligero de aleación de titanio y en la ausencia de una suscripción mensual: todo el análisis de datos y las recomendaciones se despliegan en la aplicación móvil sin coste adicional. La certificación IP68 permite usarlo en la ducha o nadar en la piscina, sin temor a dañarlo. La disponibilidad en tallas del siete al trece y en dos acabados estéticos —negro brillante y oro rosa mate— amplia su atractivo para usuarios de diferentes edades y estilos. La aplicación acompaña cada métrica con gráficos intuitivos y sugerencias de descanso o actividad, apoyadas por inteligencia artificial desarrollada por Acer. Aunque queda pendiente conocer el precio y la fecha de venta, la presentación en Computex sitúa al FreeSense Ring en el radar de consumidores interesados en tecnología de punta para el cuidado personal. Si Acer cumple con un lanzamiento cercano a los 300 dólares, este anillo tiene potencial para convertirse en una opción popular entre quienes buscan un monitoreo discreto y completo de su salud diaria. El FreeSense Ring forma parte de la división Acer Gear, responsable de productos innovadores más allá de computadoras tradicionales. En Computex 2025, Acer Gear también reveló los AI TransBuds, auriculares inalámbricos capaces de realizar traducción de voz en tiempo real en hasta quince idiomas. Estos auriculares y el anillo comparten un estuche de carga magnética con puerto USB-C, que completa una carga en aproximadamente una hora. El anillo, certificado con IP68, soporta polvo y sumersiones de hasta cincuenta metros, apto para natación recreativa. Está construido en titanio grado 5, material empleado en implantes médicos por su excelente relación resistencia-peso de 280 MPa por gramo. Con un peso de solo dos a tres gramos, se siente casi imperceptible. La app de Acer, compatible con Android 11 y versiones superiores, e iOS 15 y posteriores, procesa los datos sin enviar información a servidores externos, garantizando privacidad. FreeSense Ring ofrece monitoreo integral de salud sin suscripciones ni costes ocultos. Con sensores avanzados, diseño ultraligero de titanio e integración Bluetooth en una app con IA, promete transformar tu rutina de descanso y actividad. Pese a precio y lanzamiento pendientes, su debut en Computex Taipei 2025 lo posiciona como una opción atractiva en wearables de salud.
Sony ha lanzado sus nuevos audífonos WH-1000XM6, prometiendo mejor calidad de sonido y cancelación de ruido avanzada. Pero, ¿podrían estos audífonos estar dañando nuestra salud auditiva? ¿Qué efectos pueden tener en el cerebro?Por Félix Riaño @LocutorCo Sony ha presentado sus nuevos audífonos WH-1000XM6, una evolución en su popular serie de auriculares con cancelación de ruido. Estos dispositivos, que cuestan 450 dólares, prometen una experiencia de sonido inmersiva gracias a su nuevo procesador QN3, que es siete veces más rápido que su versión anterior.Con 12 micrófonos para una cancelación de ruido precisa y tecnología de optimización automática, los WH-1000XM6 buscan destacarse en el mercado de audífonos premium. Pero, aunque la tecnología promete una experiencia auditiva envolvente, hay un problema que muchos pasan por alto: el uso prolongado de audífonos con cancelación de ruido ha sido vinculado a problemas de salud auditiva, como el Trastorno de Procesamiento Auditivo (APD).Audiologistas en el Reino Unido advierten que estos dispositivos podrían estar afectando la capacidad del cerebro para procesar sonidos. ¿Estamos sacrificando nuestra salud por una mejor experiencia de sonido? Pero, ¿cómo funciona realmente la cancelación de ruido y a qué precio? Los Sony WH-1000XM6 son la nueva apuesta de la marca para dominar el mercado de audífonos con cancelación de ruido. Equipados con un procesador QN3 siete veces más rápido que el QN1 del modelo anterior, estos audífonos utilizan 12 micrófonos para detectar y eliminar sonidos no deseados. Esto se logra mediante un proceso llamado cancelación de ruido activa, una tecnología que no es exclusiva de Sony, sino que también utilizan marcas como Bose, Apple y Sonos.La cancelación de ruido funciona gracias a ondas sonoras inversas.Imagina que el sonido es una onda en el agua. Si tienes una ola hacia arriba y creas otra igual pero hacia abajo, ambas se anulan. Los audífonos detectan el ruido externo con sus micrófonos y generan una onda opuesta que lo cancela. Esto permite a los usuarios escuchar música o llamadas en paz, incluso en ambientes ruidosos como aviones, oficinas o calles concurridas. Pero la competencia no se queda atrás. Los Sonos Ace, que inicialmente costaban 499 dólares, ahora están disponibles por 349 dólares en Amazon. Estos audífonos también cuentan con cancelación de ruido avanzada, un diseño cómodo y una función llamada TV Audio Swap, que permite transferir el sonido del televisor directamente a los audífonos. Esto los convierte en una opción atractiva para quienes buscan disfrutar de películas y series sin molestar a otros. A pesar de toda esta tecnología, el uso prolongado de audífonos con cancelación de ruido puede tener consecuencias para la salud auditiva. Según el NHS del Reino Unido, cada vez más jóvenes son diagnosticados con Trastorno de Procesamiento Auditivo, también conocido como APD. Este problema dificulta que el cerebro interprete correctamente los sonidos, incluso cuando el oído funciona perfectamente.El problema está en cómo el cerebro se adapta a un entorno artificial. Al usar audífonos con cancelación de ruido durante largos periodos, el cerebro pierde la práctica de filtrar sonidos y priorizar voces. Esto se traduce en dificultades para comprender conversaciones en ambientes ruidosos, reconocer voces familiares o identificar el origen de los sonidos.La doctora Claire Benton, de la Academia Británica de Audiología, advierte que el uso prolongado de estos dispositivos crea una “realidad falsa”, donde el usuario solo escucha lo que quiere, pero no entrena su cerebro para discriminar sonidos. Además, estudios han mostrado que el aislamiento acústico constante puede aumentar la ansiedad en ambientes ruidosos, como conciertos, restaurantes o calles concurridas. Para reducir los riesgos, los especialistas recomiendan limitar el tiempo de uso de audífonos con cancelación de ruido y utilizar el modo de transparencia, que permite escuchar algunos sonidos del entorno. Esto mantiene el cerebro entrenado para discriminar sonidos importantes. Además, es útil practicar ejercicios auditivos que estimulen la capacidad de escucha activa, como participar en conversaciones en ambientes variados sin audífonos.Los Sony WH-1000XM6 destacan por su calidad de sonido y tecnología avanzada, pero deben usarse de manera responsable. Si estás buscando audífonos con excelente conectividad y experiencia de sonido para entretenimiento en casa, los Sonos Ace son una opción interesante gracias a su función TV Audio Swap, que permite transferir el audio del televisor a los audífonos. Pero, al igual que con los Sony, es fundamental recordar que la salud auditiva debe ser una prioridad.Para quienes buscan la máxima calidad de sonido, los Bose QuietComfort Ultra y los Apple AirPods Max son otras opciones a considerar, pero también comparten el mismo riesgo si se usan en exceso. La clave es disfrutar de la tecnología sin comprometer tu salud. Los audífonos Sony WH-1000XM6 tienen una batería que dura 30 horas con cancelación de ruido activa y 40 horas sin ella. Una carga rápida de tres minutos ofrece tres horas de uso, ideal para emergencias. El modelo cuenta con compatibilidad con códecs de alta calidad como LDAC, SBC y AAC, y su diseño plegable permite guardarlos fácilmente. Los Sonos Ace, que ahora cuestan 349 dólares en Amazon, ofrecen una experiencia diferente gracias a su conectividad directa con televisores a través del TV Audio Swap, convirtiéndolos en una opción ideal para entretenimiento en casa. Los Sony WH-1000XM6 son audífonos avanzados que ofrecen calidad de sonido y cancelación de ruido superior. Pero su uso prolongado podría afectar tu salud auditiva. Los Sonos Ace, ahora más accesibles, destacan por su conectividad con televisores. La clave es disfrutar de estos dispositivos de manera responsable. Si te interesa adquirir los Sonos Ace por 349 dólares, puedes encontrarlos en Amazon usando nuestro enlace de afiliado en la descripción del episodio.Flash Diario en Spotify
Transmutación de plomo en oro: El experimento ALICE en el CERN logró convertir plomo en oro, replicando un sueño alquímico con tecnología moderna Por Félix Riaño @LocutorCo En el Gran Colisionador de Hadrones (LHC) del CERN, un experimento llamado ALICE ha logrado convertir plomo en oro, alcanzando lo que durante siglos fue solo un sueño para los alquimistas. Pero este oro no se puede usar para joyería ni para volverse rico. En realidad, estos átomos de oro existen solo por una fracción de segundo antes de desaparecer. El proceso ocurre cuando los núcleos de plomo, acelerados al 99,999993 % de la velocidad de la luz, pasan tan cerca unos de otros que sus campos electromagnéticos generan pulsos de fotones capaces de arrancar protones de los núcleos. Así, tres protones menos convierten al plomo en oro. ¿Cómo lograron algo que parecía imposible? ¿Y qué impacto tiene este descubrimiento en la ciencia moderna? No es magia, es ciencia a la velocidad de la luz. Desde la antigüedad, los alquimistas soñaban con transformar plomo en oro, un metal precioso codiciado por su color brillante y su rareza. Pero no sabían que el plomo y el oro son elementos distintos. El plomo tiene 82 protones en su núcleo, mientras que el oro tiene 79. Esta diferencia impide cualquier transformación química. Pero, ¿y si la respuesta no estaba en la química, sino en la física? La física nuclear del siglo XX revolucionó la comprensión de la materia. Los científicos descubrieron que, bajo ciertas condiciones, los átomos podían transformarse. Pero no con reacciones químicas, sino a través de procesos nucleares que afectan el núcleo mismo de los átomos. El Gran Colisionador de Hadrones (LHC) de CERN es el acelerador de partículas más poderoso del mundo. Tiene un túnel de 27 kilómetros donde núcleos de plomo viajan a velocidades cercanas a la luz. Cuando estos núcleos pasan cerca unos de otros, sus campos electromagnéticos generan pulsos de fotones que pueden arrancar protones de los núcleos. Para convertir plomo en oro, un núcleo de plomo debe perder tres protones. Esto sucede en un proceso llamado disociación electromagnética. Los núcleos de plomo emiten fotones que golpean otros núcleos, provocando la pérdida de protones. Pero este oro es extremadamente efímero. Solo existe por una fracción de segundo antes de desintegrarse en partículas subatómicas. El equipo de ALICE utilizó calorímetros de grado cero (ZDC) para detectar y medir estos eventos. Identificaron que durante el período conocido como Run 2 (2015-2018), se produjeron 86 mil millones de núcleos de oro. En términos de masa, esto representa solo 29 picogramos, una cantidad tan pequeña que no se puede ver ni usar. En Run 3, las mejoras en la tecnología permitieron casi duplicar esta cantidad. Pero este oro sigue siendo fugaz. Los átomos de oro se desintegran rápidamente, chocando contra el tubo del LHC y fragmentándose en protones y neutrones. La alquimia moderna es impresionante, pero no produce riquezas. El LHC también produjo otros elementos como talio y mercurio, dependiendo de cuántos protones perdieron los núcleos de plomo. Estos resultados permiten a los científicos comprender mejor la física de partículas y mejorar la estabilidad de los haces de partículas en el LHC. La disociación electromagnética es clave para entender cómo se comportan los átomos bajo campos magnéticos extremos, algo que ayuda en el LHC, también es vital para el diseño de futuros colisionadores de partículas. Además, el estudio ayuda a modelar mejor las pérdidas de partículas en los haces, un problema constante para la eficiencia de estos aceleradores. El experimento ALICE en el LHC logró transformar plomo en oro por una fracción de segundo. Es un sueño antiguo hecho realidad gracias a la ciencia moderna. Si te interesa la ciencia y la tecnología, escucha el pódcast Flash Diario en Spotify. Bibliografía: CERNTechSpotSciTechDailySpace.comFuturismNatureConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
Nuevo teléfono Samsung Galaxy S25 Edge: Un flagship ultradelgado Por Félix Riaño @LocutorCo Samsung Galaxy S25 Edge: El teléfono ultradelgado con pantalla AMOLED y Gorilla Glass Ceramic 2 que desafía la tecnología móvil.El Samsung Galaxy S25 Edge es el modelo más delgado de la familia Galaxy S25, con apenas 5,8 milímetros de grosor, similar al ancho de un lápiz. A pesar de su diseño ultrafino, ofrece tecnología de alta gama. Su pantalla AMOLED de 6,7 pulgadas utiliza tecnología orgánica que ilumina cada píxel de manera independiente, logrando colores vibrantes y negros profundos. Esto permite una experiencia visual impactante, ideal para ver videos y fotos. Además, su cámara principal de 200 megapíxeles captura imágenes en alta resolución, revelando detalles minuciosos. El marco del S25 Edge está hecho de titanio, un material liviano pero muy resistente, mientras que su pantalla está protegida por Gorilla Glass Ceramic 2, un vidrio cerámico avanzado desarrollado en colaboración con Corning. Este material combina transparencia y resistencia, gracias a cristales microscópicos que absorben impactos y previenen grietas. ¿Puede un teléfono tan delgado competir en rendimiento y resistencia con otros modelos premium como el iPhone 16? Vamos a descubrirlo. El Samsung Galaxy S25 Edge es un dispositivo que se destaca por su diseño ultradelgado de solo 5,8 milímetros, mucho más delgado que otros teléfonos como el iPhone 16 (7,8 mm) y el Motorola Edge 30 (6,79 mm). Esta delgadez se logra sin sacrificar calidad gracias a su chasis de titanio, un material ligero y resistente utilizado en la industria aeroespacial. Su pantalla AMOLED de 6,7 pulgadas ofrece colores vibrantes y negros profundos, mientras que su cámara de 200 megapíxeles captura detalles impresionantes, superando la resolución de otros teléfonos de su categoría. La pantalla está protegida por Gorilla Glass Ceramic 2, un vidrio cerámico avanzado desarrollado junto a Corning, que incluye microcristales para mejorar la resistencia a impactos. A pesar de su diseño ultradelgado, el S25 Edge mantiene un rendimiento de alta gama con su procesador Snapdragon 8 Elite, Wi-Fi 7, Bluetooth 5.4 y funciones de inteligencia artificial para mejorar imágenes y optimizar aplicaciones. Pero su batería de 3.900 mAh y la ausencia de un lente teleobjetivo plantean una pregunta clave: ¿es este diseño más delgado una ventaja o un sacrificio? Elegancia y delgadez a cambio de batería y cámara. El Galaxy S25 Edge es una hazaña de la ingeniería moderna. Su pantalla AMOLED de 6,7 pulgadas utiliza tecnología orgánica de emisión de luz, donde cada píxel se ilumina de forma independiente, logrando negros profundos y colores vibrantes. Este diseño permite un consumo energético optimizado. En el apartado fotográfico, el sensor de 200 megapíxeles proporciona una capacidad sin precedentes para capturar imágenes detalladas, ideal para fotografía profesional. Su procesador Snapdragon 8 Elite garantiza una eficiencia computacional avanzada, soportando tareas de inteligencia artificial como el reconocimiento de imágenes, la traducción en tiempo real y la optimización de aplicaciones. Sin embargo, la búsqueda de la delgadez ha impuesto compromisos técnicos. La batería de 3,900 mAh del Galaxy S25 Edge es notablemente más pequeña que la del Galaxy S25+ (4,900 mAh) y el Galaxy S25 Ultra (5,000 mAh), lo que reduce su autonomía. Esto significa que quienes usan intensamente su teléfono para juegos, videollamadas o navegación web podrían necesitar recargarlo más de una vez al día. Además, a diferencia del S25 Ultra, que cuenta con un sistema de triple cámara incluyendo un lente teleobjetivo, el S25 Edge carece de esta opción, limitando la capacidad de hacer zoom óptico en fotografías. En lugar de un zoom óptico de alta calidad, solo ofrece zoom digital, lo que reduce la calidad de las imágenes al acercar. Para mitigar estos desafíos, Samsung ha colaborado con Corning para desarrollar el Gorilla Glass Ceramic 2. Este material combina la transparencia del vidrio con la resistencia de la cerámica, logrando una protección superior sin comprometer la claridad de la pantalla. En conectividad, el Galaxy S25 Edge es compatible con Wi-Fi 7 y Bluetooth 5.4, garantizando velocidades de transferencia rápidas y una conexión estable. Su inteligencia artificial, potenciada por Galaxy AI, permite optimizar imágenes, traducir textos y resumir contenido, transformando al dispositivo en una herramienta versátil para productividad y entretenimiento. El Galaxy S25 Edge está disponible en tres colores: negro, plateado y azul. Su precio inicial es de aproximadamente 1.270 euros o 1.400 dólares estadounidenses, con opciones de almacenamiento de 256 GB y 512 GB. Los usuarios que lo preordenen obtendrán doble almacenamiento sin costo adicional y una tarjeta de regalo de 50 dólares. Además, Samsung ofrece el programa Galaxy Club, que permite actualizar el dispositivo cada año con descuentos exclusivos. El Samsung Galaxy S25 Edge combina diseño ultradelgado y tecnología avanzada. Ofrece una experiencia visual superior, una cámara de alta resolución y conectividad moderna. Sin embargo, su batería limitada y la falta de un lente teleobjetivo son puntos a considerar. Es un dispositivo ideal para quienes priorizan diseño y ligereza, pero quienes buscan mayor autonomía y versatilidad fotográfica podrían considerar otras opciones.
Google y Honor lanzan un generador de videos con IA en los teléfonos Honor 400 y 400 Pro. ¿Qué tan útil es esta herramienta? Por Félix Riaño @LocutorCo Google y Honor han unido fuerzas para lanzar una nueva función de generación de videos con inteligencia artificial. Esta herramienta, impulsada por el modelo Veo 2 de Google, permite a los usuarios de los nuevos teléfonos Honor 400 y 400 Pro convertir imágenes estáticas en videos cortos de hasta cinco segundos. Esta tecnología está integrada directamente en la aplicación de galería de los teléfonos, lo que facilita su uso sin necesidad de configuraciones complicadas. Los usuarios solo deben seleccionar una imagen y el modelo Veo 2 genera el video automáticamente. Según Google, este modelo puede interpretar imágenes simples y complejas, pero ha demostrado tener mejores resultados con fotos claras y bien definidas. ¿Cómo funciona realmente y qué tan precisos son estos videos?? Pero, ¿cuál es el límite y qué tan realistas son? El fabricante de teléfonos Honor se ha adelantado al resto al ofrecer una herramienta de inteligencia artificial desarrollada en estrecha colaboración con Google. Esta alianza comenzó cuando Honor buscó integrar capacidades avanzadas de inteligencia artificial en sus dispositivos, y Google vio una oportunidad para probar su modelo Veo 2 en un mercado amplio. Google proporciona el modelo Veo 2, una tecnología avanzada de generación de video a partir de imágenes, mientras que Honor lo integra directamente en su aplicación de galería, optimizando su rendimiento para los modelos Honor 400 y 400 Pro. Esto permite a los usuarios convertir imágenes en videos cortos de cinco segundos sin necesidad de configuraciones complejas. La colaboración destaca por permitir que Google obtenga retroalimentación del uso del modelo y Honor ofrezca una función exclusiva. Esto deja fuera a otros fabricantes, como Samsung y Pixel, que usualmente son los primeros en recibir las novedades de Google. ¿Qué implicaciones tiene esto para el mercado de teléfonos inteligentes? Pero la tecnología no es perfecta. Los primeros en probar esta función fueron periodistas de tecnología de medios como The Verge y Lifehacker, quienes recibieron acceso anticipado a los teléfonos Honor 400 y 400 Pro. Los reporteros realizaron pruebas prácticas en diversos escenarios, desde fotos de personas y mascotas hasta imágenes más complejas, como autos antiguos y bodegones. Mientras que las imágenes claras de personas y animales lograron movimientos fluidos, las imágenes complejas produjeron resultados extraños. En un ejemplo, un auto clásico giró sin mover sus ruedas, y en otro, una mano fantasmal apareció tocando tomates. Estos resultados fueron publicados en artículos que revelaron las limitaciones actuales del modelo Veo 2 de Google. Los nuevos teléfonos Honor 400 y 400 Pro estarán disponibles a partir del 22 de mayo de 2025. Los usuarios que adquieran estos dispositivos podrán utilizar la función de generación de videos con inteligencia artificial de manera gratuita durante los primeros dos meses, limitada a 10 videos generados por día. Después de este periodo inicial, se espera que la función tenga un costo adicional o esté vinculada a una suscripción de Google Gemini. La función estará disponible inicialmente en China, y se espera su expansión a otros países de Asia antes de llegar a mercados globales. Google y Honor aseguran que los datos de los usuarios no se utilizarán para entrenar los modelos de IA, priorizando la privacidad y el control del usuario sobre su contenido. Esta nueva función de inteligencia artificial en los teléfonos Honor marca un cambio notable en la estrategia de Google. Tradicionalmente, Google lanza sus innovaciones primero en sus teléfonos Pixel, considerados sus dispositivos insignia, donde puede controlar la experiencia del usuario y recopilar retroalimentación directamente. Sin embargo, en este caso, Google eligió a Honor como socio inicial, lo que ha sorprendido a muchos expertos en tecnología. La razón es estratégica: al asociarse con Honor, Google puede probar su modelo Veo 2 en un mercado masivo sin comprometer la imagen de sus teléfonos Pixel. Honor, por su parte, obtiene una ventaja competitiva al ofrecer una función exclusiva que no está disponible en otros dispositivos Android, incluido el propio Pixel. Esto plantea preguntas para otros fabricantes como Samsung y Xiaomi, que normalmente esperan ser los primeros en recibir innovaciones de Google. Para los usuarios de Pixel, esta decisión podría ser frustrante, ya que están acostumbrados a recibir las últimas funciones de Google antes que otros. A futuro, se espera que la herramienta se expanda a otros dispositivos bajo una suscripción de Google Gemini, lo que podría convertirla en una nueva fuente de ingresos para Google. Google y Honor lanzan una herramienta de inteligencia artificial que convierte imágenes en videos. ¿Es el futuro del contenido visual? ¿Quieres saber más? Sigue Flash Diario en Spotify.Flash Diario en Spotify
SoundCloud cambia sus políticas para permitir el uso de contenido de usuarios en el entrenamiento de inteligencia artificial, generando controversia y preocupación entre artistas Por Félix Riaño @LocutorCoSoundCloud, una plataforma mundialmente conocida para compartir música y podcasts, ha actualizado sus términos de uso, permitiendo que el contenido subido por los usuarios se use para entrenar inteligencia artificial. Esto significa que las canciones, mezclas y audios que los artistas y creadores suben al servicio ahora pueden ser utilizados para mejorar y desarrollar tecnologías de IA. Pero este cambio va más allá de SoundCloud: se une a una tendencia global donde plataformas como YouTube, LinkedIn y X (antes Twitter) también han actualizado sus políticas para permitir el uso de contenido de usuarios en IA. La gran diferencia es que SoundCloud permite este uso incluso sin el consentimiento explícito de los artistas. ¿Cómo afecta esto a los creadores? ¿Pueden proteger su contenido en un mundo cada vez más dominado por la inteligencia artificial? ¿Está en riesgo el futuro de la música independiente en plataformas digitales? Artistas descubren y reaccionan ante las nuevas políticas de SoundCloud. SoundCloud es una de las plataformas de música y audio más populares del mundo. Fundada en 2007 en Alemania, se convirtió rápidamente en un espacio para que artistas independientes y creadores de contenido compartieran su música y otros audios. Miles de músicos y DJs usaron SoundCloud para lanzar sus carreras, y muchos encontraron seguidores leales gracias a la facilidad para compartir y descubrir música nueva. Pero en 2024, la empresa actualizó sus términos de servicio, permitiendo que el contenido de los usuarios se use para entrenar inteligencia artificial.El cambio fue notado por expertos en ética tecnológica y rápidamente se viralizó en redes sociales. Los artistas comenzaron a preguntar si sus canciones podían ser utilizadas sin su consentimiento para entrenar modelos de inteligencia artificial. Esto provocó una ola de preocupación, especialmente entre músicos independientes, quienes sienten que su trabajo podría ser explotado sin una compensación justa. El cambio en las políticas de SoundCloud no fue anunciado de manera destacada. Los usuarios descubrieron la modificación por publicaciones de expertos y redes sociales. Los términos ahora indican que el contenido subido puede ser utilizado para “informar, entrenar, desarrollar o servir como entrada para tecnologías de inteligencia artificial o servicios de aprendizaje automático”.Muchos artistas sintieron que sus creaciones estaban siendo utilizadas sin su permiso explícito y comenzaron a eliminar sus canciones de la plataforma. Esto generó una fuerte reacción en redes sociales, donde músicos como el dúo The Flight decidieron borrar su contenido y cerrar sus cuentas. Otros usuarios compartieron guías sobre cómo proteger su contenido y minimizar el riesgo de que sea usado para entrenamiento de IA. Ante la reacción de los usuarios, SoundCloud aclaró que su política no significa que actualmente esté usando contenido para entrenar modelos de IA. La empresa explicó que los cambios son para permitir el uso de IA dentro de su propia plataforma, mejorando recomendaciones, organizando contenido, detectando fraudes y optimizando la identificación de contenido.SoundCloud aseguró que los acuerdos con sellos discográficos, como Universal Music y Warner Music Group, garantizan que la música de esos artistas no será usada para entrenamiento de IA. Pero muchos creadores independientes siguen preocupados, temiendo que sus canciones sean utilizadas sin su autorización y sin recibir ningún tipo de compensación. SoundCloud no es la única empresa que ha cambiado sus políticas para permitir el entrenamiento de IA. En 2024, LinkedIn modificó sus términos para permitir que los datos de sus usuarios fueran usados para entrenar IA. X (antes Twitter) hizo lo mismo, y YouTube también comenzó a permitir que terceros entrenen IA usando fragmentos de videos de usuarios.Los críticos argumentan que las plataformas deben ser más transparentes y permitir que los usuarios opten por no participar en estos usos de sus contenidos. Mientras tanto, algunos músicos buscan alternativas en plataformas que ofrezcan mayor control sobre sus derechos. SoundCloud cambió sus políticas para permitir el uso de contenido de usuarios en el entrenamiento de IA, generando preocupación entre artistas. ¿Debería SoundCloud ofrecer una opción clara para que los usuarios decidan si su contenido puede ser usado en IA?Escucha más análisis como este en el pódcast Flash Diario en Spotify: Flash Diario en Spotify BibliografíaTechCrunchFast CompanyPitchforkConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
Transformación de Netflix: Innovación y experiencia optimizada Por Félix Riaño @LocutorCo A partir del 19 de mayo, Netflix introducirá una interfaz de usuario renovada en su plataforma de TV, que incluye accesos directos a "Buscar", "Programas", "Películas", "Juegos" y "Mi Netflix". Esta reestructuración busca simplificar la navegación y mejorar las recomendaciones, haciéndolas más precisas y adaptativas. Además, la nueva función de búsqueda con inteligencia artificial en iOS permitirá a los usuarios encontrar contenido utilizando lenguaje natural, optimizando la personalización del servicio. Netflix apuesta por la inteligencia artificial para revolucionar la forma de descubrir contenido Netflix, líder mundial del streaming, ha optado por una renovación sustancial de su plataforma, comenzando con una interfaz más intuitiva en televisores. En lugar del menú lateral tradicional, los accesos estarán ubicados en la parte superior, siempre visibles, lo que facilita el acceso inmediato a las opciones principales. Esta decisión refleja una tendencia hacia el diseño centrado en el usuario, permitiendo que la navegación sea más fluida y visualmente atractiva. Además, la plataforma optimiza las recomendaciones, basadas en el comportamiento de visualización y búsqueda de cada usuario. La competencia en el mercado del streaming es feroz. Netflix se enfrenta a plataformas emergentes como Disney+, HBO Max y Amazon Prime Video, que no solo ofrecen contenido exclusivo, sino que también buscan capturar la atención de los usuarios a través de estrategias de descubrimiento innovadoras. Además, las redes sociales como TikTok han creado nuevos hábitos de consumo de contenido en formato corto, desafiando a las plataformas tradicionales. En este contexto, Netflix necesita diferenciarse para mantener su liderazgo. Para enfrentar estos desafíos, Netflix no solo rediseña su interfaz, sino que también integra inteligencia artificial en su aplicación móvil para iOS. Esta tecnología permitirá a los usuarios realizar búsquedas utilizando lenguaje natural, como "quiero ver algo emocionante". La IA analizará preferencias de visualización para ofrecer recomendaciones cada vez más precisas. Además, Netflix probará un feed de videos verticales similar a TikTok, permitiendo a los usuarios descubrir contenido a través de clips cortos e interactivos. Estos cambios fueron presentados en el evento "Product & Tech" de Netflix, donde Eunice Kim, directora de producto, y Elizabeth Stone, directora de tecnología, explicaron la visión de la empresa: una plataforma más ágil, personalizada y conectada con los intereses de sus usuarios. Además, Netflix continuará desarrollando juegos basados en sus series y ofrecerá eventos en vivo. La empresa refuerza su capacidad para combinar tecnología y entretenimiento de manera única. Netflix ha anunciado una profunda transformación de su plataforma, incluyendo una interfaz de usuario rediseñada para televisores y la implementación de inteligencia artificial generativa en su aplicación móvil para iOS. Estos cambios buscan optimizar la experiencia de navegación y descubrimiento de contenido para millones de usuarios a nivel global. ¿Qué implicaciones tiene esta renovación para el modelo de negocio de Netflix y su relación con los consumidores?Netflix se transforma con una nueva interfaz de TV y funciones avanzadas de inteligencia artificial. ¿Estos cambios mejoran la experiencia del usuario? ¿Cambiarán la manera en que consumes contenido? Déjanos tu opinión.Sigue el pódcast Flash Diario en Spotify Bibliografía:CBC NewsCNNYahoo NewsNetflixConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
Spotify lanza Snooze para bloquear canciones repetidas y ofrece más control a usuarios Premium Por Félix Riaño @LocutorCo Spotify tiene 615 millones de oyentes mensuales, de los cuales 236 millones pagan Premium. La plataforma está probando una nueva función llamada «Snooze 30 días». Los usuarios Premium pueden bloquear temporalmente canciones que no quieren escuchar. La función aparece junto a las opciones de «Ocultar» y permite pausar una canción durante 30 días sin eliminarla. Snooze se está probando en Estados Unidos, Canadá y Reino Unido, y pronto llegará a otros países. Spotify reconoce que su algoritmo a veces repite canciones y ofrece Snooze para que los usuarios tengan más control. Spotify admite que sus recomendaciones pueden volverse repetitivas. Spotify ofrece Discover Weekly desde 2015. Cada lunes, esta lista sugiere 30 canciones personalizadas usando un algoritmo que analiza 2 billones de listas y el historial de cada usuario. Pero el sistema tiene un problema: si una canción se reproduce hasta el final, Spotify asume que gusta y la repite. En 2024, Chartmetric mostró que 4 de cada 10 oyentes saltan la misma canción al menos 3 veces por semana. Con Snooze, los usuarios pueden bloquear esas canciones sin borrarlas. El problema de las canciones repetitivas no solo aburre, también afecta a los artistas. Los músicos emergentes pueden ver su trabajo rechazado si aparece fuera de contexto. Además, los grandes sellos dominan las listas de recomendaciones. Deezer y YouTube Music ya ofrecieron soluciones similares. Ahora, Spotify lanza Snooze para dar más control a los usuarios sin afectar su modelo de negocio. Spotify no solo añade Snooze. También ha mejorado el botón «Ocultar», que ahora sincroniza la decisión en todos los dispositivos. La sección «Ahora Suena» muestra las recomendaciones futuras y permite eliminarlas. También se añadieron accesos directos a Shuffle, Smart Shuffle, Repetir y Temporizador de Sueño. Spotify paga a los artistas un promedio de 0,0032 USD por reproducción. Esto equivale a menos de un tercio de un centavo. Un artista necesita 312 reproducciones para ganar 1 dólar. En mercados como Colombia y México, el costo del plan familiar de Spotify se puede dividir entre seis personas, reduciendo el costo mensual a menos de 1 dólar por persona. Esto hace que el servicio sea accesible. Spotify no paga a los creadores de pódcast. Solo paga a las discográficas por las canciones. Los pódcast son gratuitos para todos, incluso para quienes no pagan Premium. Los usuarios Premium escuchan música sin anuncios, pero los pódcast pueden incluir publicidad, ya que los anuncios son responsabilidad del creador del contenido. Algunos pódcast son de pago y se compran por episodio o temporada. Spotify lanza Snooze para silenciar canciones repetitivas. También mejora las opciones de control en la cola de reproducción. Los pódcast siguen siendo gratuitos para todos. ¿Te interesa probar Snooze? Síguenos en Flash Diario: Flash Diario en Spotify Spotify prueba Snooze: pausa canciones repetitivas 30 días, controla tu cola y recuerda que los pódcast siguen gratis.Bibliografía TechRadar The Verge TechCrunch Spotify Newsroom Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
Nuevas Surface con IA sin conexión, más baratas que el MacBook Air M4, listas antes del fin de Windows 10Por Félix Riaño @LocutorCoMicrosoft acaba de presentar dos nuevos computadores Surface que pueden ejecutar inteligencia artificial sin conexión a internet. Son más livianos, más delgados y, sobre todo, más baratos que los modelos anteriores. El Surface Laptop de 13 pulgadas cuesta 899 dólares, cien menos que el nuevo MacBook Air con chip M4, que parte desde 999. Por su parte, la Surface Pro tipo tableta cuesta 799 dólares, acercándose al precio base de un iPad Pro, pero ofreciendo una experiencia completa de Windows. ¿Por qué estas nuevas máquinas podrían cambiar la forma en la que usamos nuestros computadores? ¿Y qué significa esto para quienes aún usan Windows 10, que dejará de recibir soporte este mismo año? Bajan los precios, pero aún hay dudas sobre su utilidad real. Vamos a comenzar por cómo lucen y funcionan. El nuevo Surface Laptop tiene una pantalla de 13 pulgadas, lo que equivale a 33 centímetros en diagonal. Es más pequeño que el modelo del año pasado, pero lo suficientemente grande para trabajar cómodamente. Usa un chip Snapdragon X Plus de ocho núcleos que incluye una unidad de procesamiento neuronal, o NPU, capaz de realizar 45 billones de operaciones por segundo. Eso le permite ejecutar funciones de inteligencia artificial sin conexión a internet. La batería promete durar hasta 16 horas navegando por la web y hasta 23 horas viendo video, lo que significa que podrías usarlo durante toda una jornada laboral, más el viaje de vuelta, sin cargarlo. La Surface Pro también trae este chip, y se transforma en portátil al conectarle un teclado desmontable. Pesa apenas 680 gramos y tiene un lápiz que se guarda magnéticamente detrás de la pantalla. A pesar de las mejoras técnicas y el precio más accesible —cien y doscientos dólares menos que los modelos de 2024— no todos están convencidos. Los computadores Copilot+ con IA integrada no han tenido la acogida que Microsoft esperaba. Analistas de firmas como Raymond James reportan que muchas personas y empresas aún no ven claro el valor añadido de estas funciones. Además, al usar procesadores basados en arquitectura Arm, puede haber incompatibilidades con programas más antiguos diseñados para chips Intel. También desaparece el cargador con puerto magnético tradicional de Microsoft: ahora se usa un puerto USB‑C estándar, algo que algunos celebran por su universalidad, pero que otros ven como una pérdida del “sello Surface”. Y hay una preocupación más profunda: muchas de estas funciones nuevas, como Recall, que graba todo lo que aparece en tu pantalla para permitir búsquedas posteriores, han generado inquietudes sobre privacidad. Ahora bien, Microsoft ha diseñado estas Surface pensando en el futuro de Windows. Con el fin del soporte para Windows 10 anunciado para el 14 de octubre, muchas personas deberán decidir si pagan por soporte extendido —que costará 30 dólares al año— o si cambian de equipo. La compañía quiere que esta nueva generación de Surface sea una opción atractiva para actualizar. Por ejemplo, incorpora funciones como el agente en Configuración, que entiende órdenes en lenguaje natural. Puedes decir “la letra está muy pequeña” y el sistema ajustará el tamaño por ti. También estrena mejoras en la herramienta de capturas de pantalla, que identifica automáticamente la parte más relevante de una imagen. Algunas aplicaciones como CapCut y DaVinci Resolve ya están optimizadas para estas Surface con IA: tareas como editar video o separar voces en una canción pueden ser hasta 30 veces más rápidas que en un computador sin NPU. Todo esto apunta a una nueva generación de PCs más inteligentes, autónomos y adaptables. Estos equipos estarán disponibles para entrega a partir del 20 de mayo, en colores nuevos como violeta, océano y platino. Las versiones empresariales llegarán el 22 de julio, con Windows 11 Pro, pantallas antirreflejo y lector NFC para mayor seguridad. Además de la velocidad y autonomía, Microsoft también ha puesto el foco en la sostenibilidad. El Surface Laptop incluye cobalto 100 % reciclado en la batería y metales reciclados en los imanes y la carcasa. La Surface Pro llega con un 82,9 % de materiales reciclados en su estructura. Ambas máquinas permiten reemplazar componentes clave a través de técnicos certificados, lo cual representa un paso importante hacia una tecnología más circular y reparable. Para quienes ya tienen experiencia con dispositivos Apple, estas Surface ofrecen algo diferente: un sistema Windows completo, más abierto a personalización, y ahora, con una integración de inteligencia artificial que se ejecuta directamente en el equipo, sin depender de la nube. Las nuevas Surface llegan más baratas, más livianas y listas para aprovechar la inteligencia artificial desde el primer día, justo cuando Windows 10 se despide. ¿Estás pensando en renovar tu equipo? Cuéntamelo y escucha más en el pódcast Flash Diario en Spotify.
Material 3 Expressive: El nuevo diseño emocional de Google para Android transforma las apps aburridas en experiencias atractivas Por Félix Riaño @LocutorCo Google filtró por error detalles sobre su rediseño de Android llamado Material 3 Expressive, un enfoque basado en emociones, colores y formas audaces.Google no quiso publicarlo aún, pero ya se conoce el próximo gran cambio visual de Android. Se llama Material 3 Expressive y busca que las aplicaciones conecten mejor con las personas. En lugar de priorizar diseños limpios y aburridos, este nuevo estilo usa colores vibrantes, formas atrevidas y movimiento para guiar la atención del usuario. ¿Por qué todas las apps se veían tan parecidas? Esa fue la pregunta inicial del equipo de diseño de Google. Ahora, con resultados de más de 46 estudios y 18.000 participantes, tienen una respuesta. ¿Y tú, prefieres apps funcionales o emocionantes? No todo el mundo verá este cambio: solo los Pixel lo recibirán completo En mayo de 2025, Google iba a presentar en su evento I/O el rediseño de Android. Pero un error hizo que se publicara antes de tiempo un blog donde explicaban en detalle cómo llegaron a ese cambio: Material 3 Expressive. Esta nueva etapa del sistema de diseño visual de Android nace con una promesa clara: hacer que las apps dejen de verse iguales y que el diseño ayude a conectar emocionalmente con las personas. Las formas grandes, los colores fuertes, las animaciones y los espacios vacíos ayudan a que la atención del usuario se dirija directamente a lo importante en pantalla. Durante años, Google aplicó el mismo lenguaje visual en muchas aplicaciones. Eso trajo coherencia, pero también aburrimiento. Todo se veía igual. Por eso el equipo de diseño se preguntó: ¿no se puede hacer algo más emocionante? Comenzaron un proceso de investigación largo. En lugar de tomar decisiones con datos fríos como "cuántos tonos de azul funcionan mejor", usaron métodos como seguimiento ocular, pruebas de usabilidad y encuestas sobre emociones. Más de 18.000 personas en todo el mundo participaron en esos estudios. El resultado: Material 3 Expressive, un diseño con personalidad. Pero no todos los fabricantes de celulares van a adoptarlo por igual. Según los estudios de Google, los usuarios que probaron Material 3 Expressive encontraron más rápido los botones importantes: hasta 4 veces más rápido. Por ejemplo, en una app de correo, el botón de enviar pasó de estar en una esquina escondida a ser grande, visible y justo sobre el teclado. Además, personas mayores de 45 años pudieron usar la app tan fácilmente como los jóvenes. Esto reduce la brecha digital. Pero aún hay obstáculos: muchos fabricantes como Samsung o OnePlus no usan el Android puro de Google, sino sus propias versiones. Así que aunque el diseño Expressive llegue a Android 16, solo los teléfonos Pixel lo van a tener completo al principio. Otros lo verán de forma parcial o quizá nunca lo vean. Material Design nació en 2014, con la idea de que todo en Android se viera coherente. En 2021 apareció "Material You", una evolución que permitía personalizar los colores del sistema con el fondo de pantalla. Ahora llega esta nueva etapa: "Material 3 Expressive". Google explica que no es una ruptura total, sino una evolución para dar más emoción al diseño. Las herramientas que usarán los diseñadores incluyen formas flotantes, colores secundarios llamativos y botones más grandes. También prometen compartir el código y plantillas con los desarrolladores durante el evento Google I/O. La intención es que todas las apps, no solo las de Google, puedan adoptar este diseño. Pero eso depende de cada desarrollador. Google quiere que Android emocione visualmente con Material 3 Expressive. ¿Lo logrará? Dependerá de si los desarrolladores lo adoptan. Sigue nuestro pódcast Flash Diario en Spotify para no perderte los próximos avances.
Presupuesto de Trump impulsa a SpaceX mientras recorta 24 % del dinero para NASA Por Félix Riaño @LocutorCo El nuevo presupuesto del presidente Donald Trump propone recortar en más de 6 mil millones de dólares el dinero para la NASA en 2026. Es el mayor recorte propuesto a la agencia espacial en toda su historia. Mientras tanto, esos fondos no desaparecen: se redirigen hacia programas de defensa espacial y hacia compañías privadas como SpaceX, que podrían recibir miles de millones en nuevos contratos. El plan sugiere eliminar el cohete SLS de Boeing y la cápsula Orión de Lockheed Martin, pilares de las misiones Artemisa, y en su lugar usar cohetes más económicos fabricados por empresas como SpaceX y Blue Origin. También busca cancelar la estación lunar Gateway, un proyecto internacional en el que participan Europa, Japón, Canadá y Emiratos Árabes Unidos. En paralelo, se propone aumentar mil millones de dólares para misiones a Marte, alineándose con el sueño de Elon Musk de colonizar el planeta rojo. ¿Es esto un impulso a la innovación o una apuesta riesgosa que pone en pausa la ciencia y las alianzas internacionales? El plan desplaza contratos clave hacia empresas privadas estadounidenses. La propuesta del presupuesto federal de 2026, publicada justo en el Día Nacional del Espacio, plantea una nueva visión sobre cómo y con quién se explora el universo. Mientras que otros años se había celebrado la cooperación internacional y el avance científico como pilares de la NASA, este documento concentra los recursos en programas más comerciales y militares. Se trata de una reorientación hacia el espacio como escenario de competencia económica y estratégica. SpaceX, empresa de Elon Musk, aparece como protagonista principal en esta nueva etapa. Actualmente, ya es la contratista más grande del Pentágono y de la NASA, y este presupuesto le abriría aún más puertas. Las inversiones más ambiciosas se concentran en dos objetivos concretos: la defensa antimisiles desde el espacio y los viajes tripulados a Marte. La empresa ha estado preparando su nave Starship justamente con este propósito. Si se aprueba este plan, Estados Unidos cambiaría su enfoque del conocimiento científico hacia la conquista y protección desde el espacio. El cambio de prioridades ha despertado preocupaciones entre científicos, académicos y expertos en política espacial. La propuesta recorta en un 47 % el presupuesto de ciencia de la NASA, lo que afectaría satélites para monitorear el clima, misiones robóticas a otros planetas y programas de observación del universo profundo. Además, pone en riesgo miles de empleos científicos y técnicos. La estación Gateway, que serviría como plataforma para futuras misiones a la Luna y Marte, sería cancelada, lo cual afecta acuerdos con Japón, Canadá, Europa y Emiratos Árabes Unidos. La Estación Espacial Internacional también enfrentaría recortes: menos astronautas, menos experimentos y una retirada anticipada en 2030. Para muchos, esta propuesta no es solo un cambio presupuestal, sino una transformación del modelo de cooperación científica por uno centrado en el interés nacional y privado. Organizaciones como The Planetary Society advierten que el presupuesto es una amenaza directa a la formación de nuevos científicos y al liderazgo global de Estados Unidos en exploración espacial. Aunque este presupuesto aún debe ser aprobado por el Congreso, ya está generando un fuerte debate. La congresista Grace Meng dijo que los recortes son "impactantes" y que destruirán años de trabajo de investigadores y educadores. Otros legisladores, como George Whitesides, aseguran que este sería el ataque más fuerte a la NASA en décadas. Del lado empresarial, hay quienes celebran el giro hacia sistemas “más eficientes” y dicen que los cohetes de SpaceX y Blue Origin pueden hacer lo mismo que el SLS, pero con menos dinero. El propio Elon Musk ha sugerido retirar la Estación Espacial antes de 2030 y usar los recursos para su visión marciana. Mientras tanto, la NASA sigue construyendo el cohete SLS y la cápsula Orión para las misiones Artemisa 3 y 4, que ya están en marcha. Los ingenieros que trabajan en estos proyectos piden claridad, mientras las alianzas internacionales esperan señales oficiales. En el fondo, esta discusión refleja una tensión entre dos modelos: la ciencia pública con alianzas globales, y la exploración comercial con fines estratégicos. Durante el año fiscal 2024, SpaceX ya había asegurado contratos por 3.800 millones de dólares. En total, desde su fundación, la empresa ha recibido más de 18.000 millones en contratos federales. Uno de sus mayores logros recientes es el contrato para desorbitar la Estación Espacial Internacional cuando termine su vida útil. Ese trabajo está valorado en 843 millones. También está construyendo la nave Starship, pensada para llegar a Marte y que ya ha sido elegida por la NASA para aterrizar en la Luna durante la misión Artemisa 3. Por otro lado, Boeing y Lockheed Martin enfrentan la posible cancelación de sus contratos, pese a haber invertido décadas en el desarrollo de las misiones actuales. Mientras SpaceX avanza con cohetes reutilizables, las grandes contratistas tradicionales quedan en una posición incierta. Japón, que tenía previsto enviar a su primer astronauta a la Luna como parte del programa Artemisa, también ve peligrar su participación. Las decisiones sobre estos temas aún están en manos del Congreso, que deberá decidir si sigue esta nueva ruta o defiende el modelo científico tradicional. Trump propone una reestructuración espacial: más fondos para SpaceX, menos para ciencia pública. Marte y defensa ganan protagonismo, mientras NASA pierde apoyo internacional. ¿Es esto el futuro de la exploración espacial? Te invito a seguir escuchando Flash Diario en Spotify y comentar tu opinión. Bibliografía:The New York Times Reuters Spaceflight Now Planetary Society Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
Una sonda soviética de 1972 caerá a la Tierra. Riesgo bajo, pero podría sobrevivir reentrada e impactar Por Félix Riaño @LocutorCo Un pedazo de historia espacial soviética volverá a la Tierra sin frenos ni rumbo definido. Se trata del módulo de descenso de la sonda Kosmos 482, una esfera metálica de 495 kilogramos que fue diseñada para soportar la atmósfera abrasadora de Venus. Pero nunca llegó a Venus. Quedó atrapada en una órbita terrestre elíptica y, tras más de medio siglo girando sobre nuestras cabezas, caerá a la Tierra. Los expertos estiman que reingresará a la atmósfera entre el 7 y el 13 de mayo de 2025. No se sabe dónde caerá, pero podría ser en cualquier parte entre las latitudes 52º norte y 52º sur. La sonda fue construida para sobrevivir la entrada a Venus Todo comenzó en marzo de 1972, cuando la Unión Soviética lanzó dos sondas con destino a Venus. La primera, Venera 8, cumplió su misión y logró transmitir durante 50 minutos desde la superficie de Venus. La segunda, su hermana gemela, tuvo menos suerte. Esa segunda sonda fue bautizada como Kosmos 482, nombre que se asignaba a los satélites que fracasaban en salir de la órbita terrestre. Tras una falla en la etapa superior del cohete Soyuz, la sonda quedó atrapada orbitando la Tierra en una trayectoria elíptica. La mayor parte de la nave cayó en 1981, pero el módulo de descenso quedó girando en silencio durante más de cinco décadas. Ahora, ese módulo de descenso está cayendo de nuevo hacia la Tierra. La esfera mide aproximadamente un metro de diámetro y fue diseñada para sobrevivir las condiciones extremas de Venus: una presión noventa veces mayor que la terrestre y temperaturas de 470 °C. Eso quiere decir que, si su escudo térmico sigue intacto, podría atravesar la atmósfera terrestre sin desintegrarse. Viajará a unos 242 kilómetros por hora al tocar suelo. La probabilidad de que impacte sobre una persona es baja, pero no es cero. El objeto puede caer en cualquier parte de la Tierra entre las latitudes de Londres y Ciudad del Cabo, pasando por regiones muy pobladas. El investigador neerlandés Marco Langbroek, quien sigue la trayectoria del objeto, indica que se trata de una reentrada de "alto interés". Las agencias espaciales y observadores amateurs continúan rastreándolo. El sitio Heavens-Above.com muestra dónde se puede ver la sonda en el cielo nocturno. Aunque el riesgo sea pequeño, los astrónomos están atentos. Jonathan McDowell, del Centro Harvard-Smithsonian, dijo que lo mejor sería que el escudo térmico esté dañado y el objeto se desintegre. Si no, caerá como un meteorito metálico. Las leyes internacionales de responsabilidad espacial exigen que el país lanzador responda por los daños. Eso pondría la responsabilidad sobre el actual gobierno de Rusia. Mientras tanto, la probabilidad de que impacte en el mar es mayor al 70 %, ya que la mayor parte de la superficie de la Tierra es agua. Kosmos 482 es parte del legado del programa Venera, que entre 1961 y 1984 envió 13 sondas a Venus. Las primeras no lograron transmitir datos, pero Venera 7 fue la primera en hacerlo desde otro planeta. Venera 8 confirmó las condiciones infernales de Venus. Estas misiones ayudaron a entender mejor las atmósferas extremas y a construir mejores sondas. Hoy en día, la reentrada de Kosmos 482 pone en evidencia el problema de la basura espacial. Más de 29.000 objetos mayores a 10 centímetros orbitan la Tierra. Algunas agencias están trabajando en sistemas para retirar esos objetos del espacio. Velas de frenado, remolcadores espaciales y otras soluciones están en desarrollo. El caso de Kosmos 482 sirve como recordatorio de que lo que enviamos al espacio puede regresar sin invitación. Kosmos 482, una sonda que no cumplió su destino en Venus, podría caer en la Tierra entre el 7 y el 13 de mayo. El riesgo es mínimo, pero real. Mantente informado y comparte este episodio. Síguenos en Flash Diario en Spotify Bibliografía Live ScienceAP NewsForbesNew York PostConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
NotebookLM transforma tus PDFs en podcasts bilingües: selecciona idioma, escucha un resumen conversacional y comparte conocimiento sin fronteras Por Félix Riaño @LocutorCoGoogle acaba de abrir un nuevo capítulo en la carrera por la inteligencia artificial accesible. NotebookLM, su cuaderno digital que ya resumía textos como un experto diligente, ahora va a ofrecer Audio Overviews en más de cincuenta idiomas. Así, la función que nació en septiembre limitada al inglés cambia el panorama educativo, laboral y creativo. ¿Te imaginas escuchar un análisis de tus fuentes en español de México, en francés de Canadá o en swahili sin recurrir a traducciones automáticas poco fiables? Con solo pulsar el engranaje de ajustes y elegir “Output Language”, el sistema genera voces conversacionales capaces de explicar, bromear y pausar en la lengua que selecciones. La promesa suena enorme: ¿cómo va a transformar esto la forma en que aprendemos y compartimos conocimiento?La traducción automática ya no es el puente exclusivo, ahora escuchas al puente hablar.NotebookLM saltó al escenario en 2024 como un asistente que toma tus documentos, PDF, videos y enlaces, y los convierte en resúmenes con citas verificables. Hasta hace poco el servicio se limitaba al texto y la voz en inglés, lo cual encorsetaba su alcance. Pero los equipos de Google Labs integraron la compatibilidad nativa de audio de Gemini 2.5 Pro, el modelo que “entiende” lenguaje natural y entonaciones. Ahora, cualquier usuario de los más de doscientos países donde está disponible va a subir un informe sobre el Amazonas en portugués, agregar un artículo en español y un ensayo en inglés, para después generar un podcast amistoso que explique todo en catalán, coreano o guaraní. El cambio no se limita a la interfaz: la IA adapta chistes locales, ejemplos culturales y mantiene el estilo cercano que cautivó a los primeros usuarios.Hablar varios idiomas suele requerir años de estudio o costosos servicios de doblaje. Esto excluye a millones de estudiantes que aprenden con materiales ajenos a su lengua materna y a creadores que desean llegar a nuevas audiencias. Además, los traductores automáticos tradicionales pierden matices, introducen errores y rompen el ritmo de una narración. NotebookLM propone una solución, pero todavía existen retos: las voces pueden atascarse con nombres propios infrecuentes, producir traducciones literales en idiomas con pocos datos y tardar varios minutos en procesar cuadernos extensos. Google advierte que el servicio sigue en versión beta y que va a mejorar con la retroalimentación de la comunidad. Por eso, docentes y periodistas deben revisar las salidas antes de publicarlas para evitar desinformación.La expansión multilingüe abre oportunidades globales. Un profesor de biología en Bogotá va a crear guías de estudio para alumnos que hablan español latinoamericano, portugués brasileño y francés europeo, todo desde la misma plataforma. Una investigadora en Madrid va a convertir un archivo de 218 páginas sobre teoría de cuerdas en un debate ameno en japonés para su colega en Tokio. Emprendedores de podcasts podrán producir episodios simultáneos en varias lenguas sin contratar locutores adicionales. Esto democratiza el acceso al aprendizaje auditivo y al contenido especializado. La clave será utilizar la opción de “Output Language” con criterio: comparar resultados, corregir rarezas y aportar contexto humano. Si la comunidad adopta buenas prácticas, vamos a escuchar un ecosistema de audio realmente plural, donde cada acento encuentra su espacio y la información cruza fronteras sin perder sabor local.Google integró Audio Overviews en Gemini App y en Google Docs, de modo que los usuarios pueden convertir apuntes, diapositivas y largos ensayos en episodios sonoros portátiles. TechRadar destaca que los presentadores sintéticos mantienen un tono de charla de café, lejos de la locución robótica. The Verge señala que la novedad llega el mismo día en que Google celebra el Día Internacional del Idioma, reforzando su estrategia de inclusión digital. Además, 9to5Googleenumera los 50 idiomas soportados, desde afrikáans hasta vietnamita, incluyendo variantes regionales de español, francés y portugués. Cada audio se genera dentro de la cuenta del usuario; Google asegura que el contenido subido no alimenta al modelo, protegiendo la privacidad. Aunque la opción está activa desde hoy, algunos dialectos como sindhi o maithili podrían presentar errores fonéticos que la compañía planea pulir pronto.NotebookLM ahora habla más de cincuenta idiomas y convierte tus documentos en podcasts amistosos. Explora la función, revisa los resultados y comparte tus hallazgos. Si te atrae conocer estos avances cada día, sigue Flash Diario en Spotify.
Google adelanta el Android Show para revelar Android 16, nuevas funciones y avances de inteligencia artificial antes de I/O 2025Por Félix Riaño @LocutorCoGoogle anunció que el próximo 13 de mayo transmitirá en vivo un episodio especial de The Android Show titulado "I/O Edition". Este evento podrá verse en YouTube y en android.com. Será una semana antes del inicio de Google I/O, la conferencia anual de desarrolladores de Google, que comenzará el 20 de mayo. Sameer Samat, presidente del ecosistema Android, presentará los avances previstos. Google explicó que esta presentación anticipada responde al creciente interés por conocer las mejoras que llegarán con Android 16, las innovaciones en realidad extendida y los avances en nuevos lentes inteligentes. ¿Revelarán ya todas las sorpresas o dejarán lo mejor para I/O? Además, los desarrolladores podrán enviar preguntas en tiempo real durante la emisión.¿Será Android desplazado por la inteligencia artificial en el próximo Google I/O?The Android Show nació como un espacio técnico en YouTube dedicado a programadores, donde se compartían códigos, APIs y novedades sobre desarrollo de aplicaciones. Hasta ahora era un contenido poco accesible para el público general. Esta vez, Google apuesta por un formato más abierto. El 13 de mayo, a las 13:00 en Bogotá, 12:00 en Ciudad de México y 20:00 en Madrid, Sameer Samat presentará funciones clave de Android 16. Entre ellas estarán mejoras de accesibilidad, nuevas medidas de seguridad contra robos, y la expansión de herramientas como Circle to Search a más idiomas. El evento será gratuito y estará disponible para todo el público, no solo para desarrolladores.Aunque los avances generan entusiasmo, también despiertan preocupaciones. Desde hace algunos años, Android ha ido perdiendo protagonismo en Google I/O, desplazado por los anuncios sobre inteligencia artificial, como el proyecto Gemini. Separar las noticias de Android en un evento previo plantea dos riesgos. Primero, el de la fragmentación: muchos dispositivos no reciben las actualizaciones a tiempo, lo que retrasa mejoras esenciales de seguridad y privacidad. Segundo, el de la dispersión: con tantos tipos de dispositivos —relojes, televisores, autos y gafas inteligentes— Android enfrenta el reto de ofrecer una experiencia coherente en todos los formatos. Revelar demasiadas novedades podría generar frustración si tardan en llegar; revelar poco podría disminuir el interés del público.Google asegura que el Android Show no agotará las novedades que se presentarán en I/O. Durante la conferencia, Sundar Pichai y Rick Osterloh van a profundizar en el uso de Gemini dentro de Android, presentarán avances del Proyecto Astra —que busca desarrollar gafas inteligentes capaces de responder a comandos visuales— y lanzarán la primera beta pública de Android 16. Se espera que Android 16 incluya mejoras como multitarea adaptable, un modo de ahorro de energía basado en rutas frecuentes, y un nuevo widget de bienestar que detecta la postura corporal usando la cámara frontal. Sameer Samat explicará también cuándo estarán disponibles estas funciones en dispositivos Pixel y en marcas como Samsung y Xiaomi, además de confirmar la continuidad de Android Go para teléfonos básicos. Si la hoja de ruta convence, los usuarios podrán disfrutar de estas novedades a partir de septiembre.Google ha probado estrategias similares en el pasado. En 2023 adelantó actualizaciones de WearOS mediante publicaciones de blog antes de I/O, y en 2024 presentó avances del chip Tensor G4 mediante comunicados oficiales. Estas iniciativas lograron millones de visitas y redujeron preguntas frecuentes en foros de la comunidad. Para este año, la apuesta es aún mayor. Android XR, que combina realidad aumentada y virtual, recibirá nuevas herramientas de diseño en tres dimensiones y una API que optimizará el uso de energía en visores ligeros, aunque todavía no se espera el lanzamiento del visor desarrollado junto a Samsung.Además, filtraciones sobre Android 16 apuntan a un nuevo sistema de actualizaciones en segundo plano para televisores inteligentes, lo cual reducirá los tiempos de reinicio y mejorará la experiencia para quienes usan su televisor para estudiar, trabajar o jugar en línea.Google ha decidido separar las novedades de Android para dedicar más espacio en I/O a la inteligencia artificial. El Android Show será la antesala ideal para conocer las nuevas funciones de Android 16 y entender el rumbo que tomará el ecosistema de Google. Vale la pena seguir ambos eventos para no perder detalle de las transformaciones que vienen. ¡Te invito a escuchar Flash Diario en Spotify y a compartir este episodio con tus amigos!Flash Diario en SpotifyBibliografía:Engadget Droid-Life The Verge TechCrunch 9to5Google Thurrott Sígueme en Instagram Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
Cultivan cuero de T-Rex en laboratorio. ¡Bolsos de dinosaurio llegarán este año! Ciencia, lujo y sostenibilidad en uno Por Félix Riaño @LocutorCo Imagínate sostener un bolso con la textura rugosa del rey de los dinosaurios, sin cazar ningún animal vivo y sin usar cuero tradicional. La empresa VML, junto con Lab-Grown Leather y The Organoid Company, están trabajando para crear piel auténtica de Tyrannosaurus rex en laboratorio. ¿Cómo lo logran? Usan fragmentos de colágeno hallados en fósiles de ochenta millones de años. Su objetivo es lanzar la primera pieza de lujo antes de que termine 2025, posiblemente durante la temporada navideña. Además de revolucionar la moda, quieren demostrar que la biotecnología puede reducir la deforestación y los químicos tóxicos que usa la curtición tradicional. ¿Veremos pronto bolsos prehistóricos en las vitrinas de París y Nueva York? Pero el proyecto enfrenta desafíos éticos, técnicos y ecológicos inesperados Todo empezó cuando paleobiólogos lograron recuperar microscópicos fragmentos de colágeno de un fémur fosilizado de T-Rex en Montana. Aunque durante mucho tiempo se creyó imposible, nuevos métodos permitieron conservar y analizar esas moléculas de proteínas. The Organoid Company, líder en ingeniería genómica, reconstruyó la secuencia completa del colágeno a partir de esos fragmentos. Después, Lab-Grown Leather, usando su plataforma avanzada ATEP™, insertó esta información en células cultivadas sin necesidad de sueros animales ni andamios artificiales. El resultado: una dermis densa, formada de manera natural, que imita a la perfección la piel original del dinosaurio. El toque creativo vino de VML, la agencia que diseñará los primeros accesorios de lujo hechos con esta nueva piel jurásica. Aunque suena increíble, fabricar cuero de T-Rex presenta complicaciones. Primero, el colágeno fosilizado no está completo, por lo que se rellenan vacíos usando modelos de inteligencia artificial, generando debate sobre qué tanto de ese cuero será "realmente" de dinosaurio. Además, la legislación actual no contempla cómo regular productos elaborados a partir de especies extintas, y organismos conservacionistas temen que esta tecnología fomente la extracción irresponsable de fósiles. Desde el punto de vista económico, se espera que los primeros productos tengan precios altísimos: algunos expertos calculan bolsos de más de 20 000 dólares. También surgen dudas éticas: ¿deberíamos comercializar tejidos que pertenecieron a criaturas desaparecidas hace 66 millones de años? Además, aunque el proceso es más limpio que la curtición tradicional, la producción en biorreactores consume energía, lo que levanta preguntas sobre su verdadero impacto ambiental. Frente a estos retos, los impulsores del proyecto ofrecen respuestas claras. El cuero T-Rex, conocido como Elemental Leather™, será completamente biodegradable y tendrá una huella de carbono aproximadamente treinta por ciento menor que la del cuero bovino tradicional. Lab-Grown Leather publica parte de la información genética reconstruida, para que otros laboratorios puedan verificar la autenticidad del proceso. Además, los bolsos incluirán un código QR que permitirá rastrear la procedencia de los fósiles, las etapas de producción y los indicadores ecológicos. Si las pruebas de resistencia mecánica, programadas para julio de 2025, son exitosas, los primeros bolsos se presentarán en una pasarela en Ámsterdam a finales de año. El plan no se queda ahí: las empresas ya negocian acuerdos con fabricantes de automóviles eléctricos para producir interiores tapizados con esta piel jurásica, ampliando el uso de biomateriales innovadores en nuevas industrias. El antecedente inmediato fue el proyecto de la albóndiga de mamut, presentado en 2023. En esa ocasión, investigadores usaron ADN de mamut completado con genes de elefante para cocinar una albóndiga de proteína reconstruida. Ahora, con el cuero de T-Rex, el reto es aún mayor porque implica replicar la estructura física completa de una piel prehistórica. Este esfuerzo ocurre mientras la industria del cuero enfrenta fuertes restricciones: en 2024, Brasil registró una deforestación ganadera cercana a 13 000 kilómetros cuadrados, y la Unión Europea prohibirá el uso de curtientes de cromo hexavalente a partir de 2027. Además, los biomateriales están en auge: se proyecta que el mercado mundial superará los 47 900 millones de dólares para 2030, creciendo alrededor del 15 % anual. En ese escenario, materiales como el cuero de T-Rex podrían convertirse no solo en un lujo exclusivo, sino en símbolos de innovación sostenible para las próximas generaciones. El cuero jurásico pasa de la ciencia ficción al escaparate real. Si el equipo logra escalar la producción, veremos bolsos con ADN de T-Rex que conjugan lujo, biotecnología y responsabilidad ambiental. ¿Te atreverías a llevar un accesorio inspirado en un depredador de 66 millones de años? Cuéntamelo y no te pierdas más historias como esta en el pódcast Flash Diario.Flash Diario en Spotify en tu plataforma favorita. BibliografíaThe Daily Galaxy The Telegraph The Times VML Newsroom Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
Motorola presenta el Razr Ultra 2025: pantalla de 7 pulgadas, IA integrada y acabado en madera Por Félix Riaño @LocutorCo Motorola lanza un teléfono plegable con inteligencia artificial, pantalla grande, tres cámaras potentes y materiales exclusivos como madera y Alcantara. Motorola dio un golpe visual y tecnológico con el anuncio del Razr Ultra 2025: el primer teléfono plegable de su línea con tapa de madera real, tres cámaras de 50 megapíxeles y un botón físico exclusivo para inteligencia artificial. Además, es el único modelo con grabación en Dolby Vision y pantalla interna de 7 pulgadas con brillo máximo de 4.500 nits, lo que lo convierte en el teléfono más luminoso del mercado hasta la fecha. En un giro inesperado, Motorola apuesta por materiales poco comunes como Alcantara y madera FSC, reforzando su identidad de marca con estilo premium y experiencia táctil única. ¿Será este el plegable que logre mover usuarios desde el iPhone Pro Max hacia Android? Motorola solo garantiza tres años de actualizaciones El nuevo Razr Ultra pertenece a una generación de teléfonos que pueden doblarse por la mitad, como los celulares con tapa de hace veinte años, pero con pantallas táctiles modernas. Al estar cerrado, muestra una pantalla externa de 4 pulgadas para ver mensajes, tomar fotos o controlar música. Cuando se abre, despliega una pantalla de 7 pulgadas, más grande que la de muchos teléfonos convencionales. Esta versión incluye acabados de lujo, como madera real certificada y tela Alcantara, una especie de gamuza sintética italiana muy suave al tacto. Además, su carcasa está reforzada con titanio, lo que le da mayor resistencia sin aumentar el peso. Aunque el Razr Ultra tiene características atractivas, hay decisiones que podrían afectar su recepción. Solo recibirá tres años de actualizaciones de sistema y cuatro años de seguridad, mientras otros fabricantes ofrecen hasta siete años. Eso acorta la vida útil del teléfono desde el punto de vista del software. Por su precio, que alcanza los 1.300 dólares, muchos usuarios podrían esperar un soporte más duradero. Además, si bien la inteligencia artificial es una de sus mayores apuestas, todavía está por verse si las funciones como “Catch Me Up” o “Remember This” serán realmente útiles en el día a día, o si quedarán como funciones llamativas sin aplicación práctica real. A pesar de esos retos, Motorola ha logrado crear un teléfono visualmente impactante y funcionalmente innovador. Su sistema de inteligencia artificial, Moto AI, agrupa funciones como grabación de voz con transcripción automática, resúmenes de notificaciones y sugerencias personalizadas según el contenido en pantalla. Puedes pedirle que recuerde información específica y luego recuperarla con una simple pregunta. El teléfono también incorpora funciones exclusivas de cámara como Group Shot, que evita fotos de grupo arruinadas, y Action Shot, que congela el movimiento sin desenfoque. El botón físico dedicado a Moto AI permite activar todo esto sin tocar la pantalla. La experiencia de uso es completamente nueva para quienes vienen de un teléfono convencional. El Razr Ultra tiene una batería de 4.700 miliamperios hora, que se carga rápidamente con 68 vatios por cable y 30 vatios de forma inalámbrica. Su memoria RAM alcanza los 16 GB y el almacenamiento interno puede llegar hasta 1 TB. Además, es el único modelo de la línea con sensores de cámara con píxeles de 2 micrómetros, lo que mejora la calidad en condiciones de poca luz. Motorola también presentó dos accesorios nuevos: los audífonos Moto Buds Loop, con cristales Swarovski y sonido optimizado por Bose, y el reloj Moto Watch Fit, que mide actividad física y sueño, y tiene 16 días de autonomía. Ambos estarán disponibles en las próximas semanas.El Razr Ultra 2025 combina diseño premium, funciones avanzadas y un enfoque innovador en inteligencia artificial. Puede ser una opción ideal para quienes buscan un teléfono que se destaque visualmente y ofrezca nuevas formas de interacción. ¿Tú lo usarías? Escucha más en el pódcast Flash Diario.Razr Ultra: madera, IA, Dolby Vision y pantalla de 7 pulgadas.
Gafas traductoras de MetaTraducción en tiempo real llega a las Ray-Ban Meta en todo el mundo Por Félix Riaño @LocutorCoMeta lanzó una función de traducción en tiempo real para sus gafas inteligentes Ray-Ban, una de las apuestas más ambiciosas de la empresa en su camino hacia la integración total entre lo digital y lo cotidiano. Esta tecnología, que hasta hace poco parecía sacada de una película de ciencia ficción, permite que personas que hablen distintos idiomas —como inglés, francés, italiano o español— mantengan conversaciones fluidas sin necesidad de intérpretes ni aplicaciones externas.Basta con ponerse las gafas y activar la función: el sistema detecta el idioma, lo traduce y lo transmite al usuario en tiempo real, directamente al oído. Además, no requiere conexión a internet si se han descargado previamente los paquetes de idioma, lo que resulta ideal para viajeros que cruzan fronteras o exploran zonas sin señal.Como parte de esta misma actualización, Meta ha comenzado a desplegar funciones visuales que reconocen objetos, alimentos y monumentos con solo mirarlos. Esta capacidad transforma las gafas en una especie de guía turística inteligente. Todo este paquete de mejoras llega sin costo adicional para quienes ya son usuarios, lo que refuerza la estrategia de Meta por consolidar un ecosistema tecnológico más atractivo y completo. Unas gafas de sol que te traducen lo que dice otra persona, sin necesidad de sacar el teléfono. Así es la nueva función de las Ray-Ban Meta, que a partir de ahora están disponibles con traducción instantánea para todos los usuarios, después de un periodo limitado solo en ciertos países. Esta tecnología permite entender y responder en cuatro idiomas principales: inglés, francés, italiano y español.También se anunció que las gafas se lanzarán pronto en México, India y Emiratos Árabes Unidos. Meta AI ahora está disponible en siete nuevos países europeos y permitirá reconocer objetos y lugares con solo mirarlos. ¿Estamos ante el inicio de un nuevo tipo de comunicación global sin barreras No todo el mundo está feliz con unas gafas que pueden grabar, traducir y reconocer lo que estás viendo Imagina estar en un mercado de París, sin saber francés, pero con las Ray-Ban Meta puestas. Un vendedor te habla y las gafas traducen sus palabras al instante, directo a tu oído. Tú respondes en español, y tu mensaje aparece en la pantalla del teléfono del vendedor, ya traducido. Esta función de traducción en vivo no necesita conexión a internet si descargas el idioma antes de salir.Además, las gafas capturan fotos, reproducen música y permiten hacer preguntas a Meta AI sobre cualquier cosa que veas. Puedes preguntar qué especie de flor estás mirando o qué plato típico está frente a ti. Con solo decirlo en voz alta, recibes una respuesta natural, sin tener que usar comandos especiales. Esto convierte a las gafas en asistentes personales visuales y auditivos, al estilo de Star Trek, pero en el bolsillo. El despliegue de estas funciones no fue tan fácil como parece. En Europa, Meta tuvo que enfrentar restricciones legales estrictas sobre privacidad. Las gafas graban audio y video, y aunque tienen una luz que indica cuándo están activas, muchas personas podrían no darse cuenta. Las autoridades europeas exigieron a Meta más garantías sobre el uso de datos recolectados por las gafas. Además, los defensores de derechos digitales advierten que esta tecnología podría ser usada para vigilancia encubierta o reconocimiento facial sin consentimiento.También preocupa la dependencia del ecosistema de Meta: la traducción en vivo está vinculada al uso de su app móvil, lo que refuerza el control de la empresa sobre la experiencia del usuario. Mientras la tecnología avanza, la pregunta sigue abierta: ¿podremos confiar en una IA que está literalmente sobre nuestros ojos? Pese a las críticas, Meta sigue apostando por estas gafas como su producto estrella en el camino hacia una realidad aumentada completa. Las nuevas funciones no solo se centran en traducir. Ahora también puedes pedirle a Meta AI que te recomiende vinos, que te diga si puedes sustituir la mantequilla por otro ingrediente, o que reconozca monumentos históricos. El despliegue incluye siete nuevos países europeos: Alemania, Austria, Bélgica, Dinamarca, Noruega, Suecia y Finlandia.En América, las gafas llegan pronto a México, un mercado estratégico por su población bilingüe y el turismo. También se amplía el acceso a servicios de música como Spotify, Amazon Music, Apple Music y Shazam, lo cual convierte las gafas en una especie de DJ personal. Todo esto se suma al uso de WhatsApp, Messenger y ahora Instagram, desde las mismas gafas. Las gafas Ray-Ban Meta, desarrolladas en alianza con Luxottica, están disponibles desde 299 dólares y ofrecen funciones avanzadas de fotografía y video. Su cámara de 12 megapíxeles graba en resolución 1080p a 60 cuadros por segundo.Tienen micrófonos direccionales, altavoces con sonido direccional que evitan filtraciones molestas y una batería que dura hasta 36 horas con su estuche. Vienen en nuevos modelos como el Skyler Shiny Chalky Gray con lentes Transitions, que se oscurecen al sol y se aclaran en interiores. También es posible añadirles lentes de prescripción. Con apenas 50 gramos de peso, estas gafas se sienten como unas normales, pero con superpoderes digitales. A diferencia de modelos como las Echo Frames de Amazon, las Meta ofrecen traducción sin conexión y un asistente visual integrado. Las Ray-Ban Meta ahora traducen en tiempo real, reconocen objetos y reproducen música, todo desde tus gafas. Síguelas con atención y escucha más sobre estas tecnologías en el pódcast Flash Diario en Spotify: Flash Diario en SpotifyLas gafas Ray-Ban Meta ahora traducen idiomas sin conexión, reconocen objetos y reproducen música. El futuro está en tu cara.BibliografíaZDNet Reuters Meta Newsroom The VergeConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
Duolingo enseñará ajedrez desde cero, con lecciones interactivas y partidas contra Oscar. El curso estará en iOS desde mayoPor Félix Riaño @LocutorCoDuolingo, la popular app para aprender idiomas, sorprendió al anunciar que va a enseñar ajedrez. Sí, el clásico juego de estrategia. Será el tercer curso no lingüístico de la app, después de música y matemáticas. Comenzará como beta en iOS a mediados de mayo y estará disponible primero en inglés. Los usuarios aprenderán desde lo más básico, como mover un alfil, hasta jugar partidas completas. El sistema de enseñanza es similar al de sus otros cursos: lecciones cortas, interactivas, con personajes simpáticos y ayudas visuales. ¿Será posible que una app que antes nos enseñó francés, ahora nos convierta en jugadores de ajedrez?Aún no podrás jugar contra otros humanosLa aplicación Duolingo fue lanzada en 2012 y cuenta con más de 37 millones de usuarios activos diarios. Desde 2022, ha empezado a ampliar su oferta más allá de los idiomas, incorporando cursos de matemáticas y música. Ahora el turno es para el ajedrez, un juego milenario que muchos consideran difícil de aprender. La nueva función incluirá lecciones sobre cómo se mueven las piezas, patrones tácticos y estrategias básicas. El curso está diseñado principalmente para principiantes y jugadores de nivel medio, una población que suele quedar desatendida por las plataformas especializadas. Los desarrolladores prometen un enfoque visual, interactivo y amigable con el usuario, donde todo se aprende jugando.El ajedrez tiene fama de ser complejo. La mayoría de las herramientas que existen para aprenderlo están diseñadas por jugadores avanzados para jugadores avanzados. Eso excluye a quienes sienten curiosidad pero no saben por dónde empezar. ¿Qué pasa si nunca has jugado una partida? ¿Cómo te enfrentas a un tablero con piezas que no entiendes? Ahí entra Duolingo. Según Edwin Bodge, gerente de producto, detectaron una oportunidad clara: hacer que aprender ajedrez sea tan accesible como aprender inglés. El reto es enorme: hay millones de combinaciones posibles en una partida. No siempre es evidente por qué una jugada es mala. Y aunque Duolingo planea usar inteligencia artificial en el futuro para explicar errores, por ahora no habrá retroalimentación detallada como la que ofrece en sus cursos de idiomas.El curso está estructurado de forma similar a las lecciones de idiomas. Comienza con una pregunta: ¿cuánto sabes de ajedrez? Dependiendo de tu respuesta, se adapta el contenido. Si eres completamente nuevo, te enseña cómo se mueve cada pieza: el caballo en forma de L, la torre en línea recta, el alfil en diagonal. Luego vienen los mini-puzzles: desafíos cortos donde debes capturar una pieza específica en pocos movimientos. Por ejemplo, capturar una torre con tu caballo en tres movimientos. Si fallas varias veces, aparece una flecha para guiarte. Pero no hay penalización dura ni juicio. En vez de un maestro severo, tendrás a Oscar, el personaje virtual que jugará partidas contra ti. Oscar sube o baja de nivel según tu progreso, lo que hace que el aprendizaje sea gradual y menos intimidante. Duolingo promete que más adelante habilitará partidas entre usuarios, pero por ahora el foco está en jugar contra Oscar. Y sí, perderás si juegas mal. Oscar no tiene piedad si dejas tu reina desprotegida.El curso fue desarrollado en tiempo récord. Según Fast Company, el equipo presentó la idea al CEO, Luis von Ahn, en agosto de 2024. En noviembre ya tenían un ingeniero trabajando y ahora, en abril de 2025, están listos para lanzar la beta en iOS. Aunque por ahora solo está disponible en inglés y en dispositivos Apple, Duolingo confirmó que en los próximos meses llegará a Android y se traducirá a otros idiomas. Esto amplía su alcance global, especialmente en regiones donde el ajedrez es muy popular. Además, cada bloque de lecciones se asocia con una franja del sistema Elo, el mismo que usan las federaciones de ajedrez para clasificar a los jugadores. A medida que avanzas, tus retos aumentan en dificultad, igual que pasar de nivel A1 a C2 en un idioma. Y aunque el curso no incluye la función “Explica mi respuesta” que sí tienen los cursos de idiomas, Duolingo está explorando formas de implementar IA para ofrecer mejores explicaciones en el futuro.Duolingo entra al mundo del ajedrez con un curso amigable y accesible para quienes quieren aprender desde cero. Las lecciones están gamificadas, adaptadas a tu nivel y disponibles pronto en iOS. ¿Te animas a intentarlo? Comenta tu opinión y sigue el pódcast Flash Diario en Spotify:Flash Diario en Spotify
Ataque de phishing usa la infraestructura de Google y engaña a millones con un correo falso que parece legítimoPor Félix Riaño @LocutorCoUn ataque de phishing altamente sofisticado está poniendo en riesgo la información personal de 3.000 millones de usuarios de Gmail.Google ha confirmado un ataque de phishing tan convincente que logró pasar todas sus verificaciones de seguridad, engañando incluso a usuarios expertos. El correo fraudulento simula una alerta oficial sobre una citación judicial y dirige a los usuarios a un portal falso alojado en sites.google.com. La trampa: capturar credenciales y robar el acceso a las cuentas. ¿Cómo es posible que incluso los expertos estén cayendo en este engaño?El mensaje parece legítimo… hasta en los detalles más técnicosNick Johnson, desarrollador y experto en Ethereum, recibió un correo que parecía oficial. Decía que Google había recibido una citación judicial para acceder a su cuenta. El remitente: no-reply@accounts.google.com. Todo parecía normal, incluso el dominio tenía sello de verificación DKIM, una firma digital que certifica la autenticidad del correo. Hasta aquí, todo encajaba. Pero al hacer clic, lo llevó a un sitio clonado, una copia perfecta de la página de inicio de sesión de Google. Todo alojado en sites.google.com, parte de la infraestructura legítima de Google. Así, los delincuentes cibernéticos lograron sortear todas las defensas automáticas del sistema.Este ataque no fue obra de aficionados. Usaron un kit de phishing comprado en foros clandestinos, por menos de 25 dólares. Estos kits permiten crear páginas falsas, copiar sitios web reales y enviar correos con apariencia creíble. Lo más grave: pasaron los filtros de autenticación de Google, incluyendo DKIM, SPF y DMARC. Además, el mensaje se ubicó en la misma conversación de otras alertas reales de seguridad. Por eso, incluso usuarios expertos como Johnson y otros desarrolladores fueron engañados. Si no tienes activada la autenticación en dos pasos o no usas passkeys, tus datos pueden quedar expuestos.Google reconoció la falla y aseguró que ya está desplegando protecciones para cerrar esta puerta de entrada. Además, recomendó a todos los usuarios activar la autenticación multifactor o, mejor aún, usar passkeys. Estas llaves de acceso están vinculadas a un dispositivo físico, por lo que no pueden ser robadas con solo un correo falso. En caso de que un hacker cambie tu contraseña y los métodos de recuperación, Google da un plazo de siete días para intentar recuperar la cuenta con el número o correo de recuperación antiguos, siempre que ya estuvieran registrados.Las técnicas de suplantación avanzaron tanto que incluso Troy Hunt, creador del sitio Have I Been Pwned, fue víctima de un correo similar. Este ataque demuestra cómo los ciberdelincuentes aprovechan subdominios legítimos como sites.google.com y vulnerabilidades antiguas que permiten ejecutar scripts y embebidos en páginas aparentemente confiables. Según NordVPN, más de 85.000 URLs falsas imitaron a Google en 2024. El negocio detrás del phishing también creció: los atacantes compran kits completos que incluyen plantillas de correos, páginas falsas y bases de datos de contactos, todo listo para ejecutar.Evita hacer clic en enlaces de correos sospechosos. Abre siempre las páginas desde el navegador y revisa bien el dominio.Flash Diario en Spotify
Soyuz MS‑26 aterriza: Pettit, Ovchinin, Vagner vuelven tras 220 días; Pettit cumple setenta años; ciencia lista para Marte __________Por Félix Riaño @LocutorCo El 20 de abril de 2025, la cápsula Soyuz MS‑26 aterrizó con suavidad sobre las inmensas estepas de Kazajistán. Dentro venían tres protagonistas: el estadounidense Don Pettit y los cosmonautas Alexey Ovchinin e Ivan Vagner, que pasaron 220 días en la Estación Espacial Internacional. En ese tiempo completaron 3520 órbitas alrededor del planeta y recorrieron 150,15 millones de kilómetros, distancia suficiente para ir y volver a la Luna casi doscientos veces. El retorno marcó el cumpleaños setenta de Pettit, quien se convirtió en el astronauta activo de mayor edad de la NASA. ¿Cómo se prepara el cuerpo humano, especialmente a esa edad, para el reencuentro con la gravedad? 70 vueltas al Sol celebradas… ¡recién bajado del cielo! A lo largo de la misión, Pettit, Ovchinin y Vagner transformaron cada módulo de la estación en un laboratorio pionero. Entre sus experimentos estrella destacaron la primera impresora metálica en 3D capaz de fabricar repuestos críticos sin esperar envíos terrestres, filtros que potabilizan agua con un consumo energético mínimo y ensayos de cultivo de mostaza y kale en tiras de hidrogel para futuras huertas marcianas. Además, observaron el fuego en microgravedad dentro de cámaras selladas, descubriendo llamas esféricas que consumen oxígeno de forma lenta y uniforme. Durante los ratos libres, Pettit inmortalizó huracanes, volcanes y auroras desde la cúpula, mientras Ovchinin calibraba sensores de radiación y Vagner verificaba guantes termoaislantes para caminatas espaciales. Cada hallazgo apuntala las misiones Artemis y las próximas estaciones comerciales. El regreso plantea tres desafíos. Primero, el fisiológico: huesos, músculos y sistema cardiovascular se debilitan hasta un uno por ciento por mes en microgravedad. Para Pettit, esa pérdida ocurre sobre una base de siete décadas de vida, así que la rehabilitación exigirá ejercicio resistido intenso, dietas altas en proteínas y controles densitométricos continuos. Segundo, el geopolítico: desde 2022 las sanciones a Rusia redujeron la cooperación con Roscosmos, pero la ISS sigue dependiendo de los propulsores rusos para mantener la altitud y de las Soyuz como “bote salvavidas”. La presencia conjunta demuestra que la ciencia aún une donde la política se fractura. Tercero, el futuro de la propia estación: la plataforma debería jubilarse antes de 2030, y aunque varias empresas privadas prometen puestos orbitales, ninguno está listo para asumir la carga científica actual. Nada más tocar suelo, rescatistas retiraron la escotilla y ayudaron a los tres viajeros a sentarse en sillones reclinables, protegiéndolos del viento gélido de la estepa. Los parámetros iniciales mostraron frecuencia cardiaca estable y presión sanguínea dentro de rangos esperados tras una reentrada balística. Luego volaron en helicóptero a Karagandá: allí, médicos rusos y estadounidenses cooperaron en un hospital de campaña donde se toman muestras sanguíneas, se revisa la visión y se aplica un primer masaje muscular que reduce la hinchazón de piernas. Desde esa base, un avión de la NASA trasladará a Pettit al Centro Espacial Johnson; Ovchinin y Vagner seguirán a la Ciudad de las Estrellas para sesiones de fisioterapia que, según estudios previos, recuperan cerca del noventa por ciento de la fuerza en seis semanas. Su experiencia alimentará modelos que predicen cómo responderán astronautas aún mayores durante los largos viajes interplanetarios que se avecinan. Pettit acumula 590 días en órbita sumando sus cuatro vuelos, lo que lo deja muy cerca de los seiscientos setenta y cinco días de la marca de Peggy Whitson. Ovchinin, con quinientos noventa y cinco días en total, ingresa en la lista de los veinte humanos que más tiempo han pasado fuera de la Tierra; Vagner totaliza cuatrocientos dieciséis. El mapeo fotográfico que Pettit realizó servirá para comparar la dispersión de partículas volcánicas en la atmósfera y la evolución de capas de hielo polares en apenas siete meses.Por otro lado, la Soyuz MS‑26 fue la primera de su línea en incorporar un revestimiento ablativo mejorado con nanopartículas cerámicas, tecnología que reduce la temperatura en la cabina durante la fase de plasma. La misión coincidió con la llegada del carguero Cygnus NG‑25, que transportó cuatro mil cien kilogramos de suministros, entre ellos un nuevo horno para experimentos metalúrgicos y un radar de apertura sintética experimental. El relevo en órbita quedó en manos del japonés Takuya Onishi, que dirige ahora la Expedición 73 con apoyo de Jonathan Kim y tres cosmonautas recién llegados. Don Pettit, Alexey Ovchinin e Ivan Vagner regresaron cargados de ciencia útil para vivir lejos de la Tierra y mostraron que la colaboración internacional todavía tiene espacio entre las estrellas. Cuéntame qué experimento te intriga y escucha Flash Diario en Spotify cada día para descubrir más historias del cosmos. BibliografíaAl JazeeraNASAUPIBBCConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
¿Vida en el planeta K2-18b? Científicos detectan gases asociados a organismos marinos en un planeta a 124 años luzPor Félix Riaño @LocutorCoLa atmósfera del exoplaneta K2-18b contiene gases que, en la Tierra, solo producen seres vivosUn equipo de científicos ha detectado señales químicas en un planeta llamado K2-18b, ubicado a 124 años luz de la Tierra. Lo emocionante es que estas señales podrían ser el rastro de vida. Detectaron gases que, en nuestro planeta, solo generan organismos vivos, como las algas del mar. ¿Es posible que haya vida más allá del sistema solar? Aunque aún falta mucho para confirmarlo, este podría ser el hallazgo más prometedor hasta ahora. El planeta tiene una atmósfera rica en hidrógeno y podría estar cubierto por un océano cálido. Pero también hay dudas sobre su verdadera composición y si esos gases pueden tener otro origen no biológico.El planeta podría ser tan caliente que tenga océanos de lavaK2-18b fue descubierto en 2015 por el telescopio Kepler y desde entonces ha sido estudiado con atención. Es un exoplaneta más grande que la Tierra, con casi nueve veces su masa. Gira alrededor de una estrella fría en la constelación de Leo y está en la llamada zona habitable, donde podría haber agua líquida. Recientemente, el telescopio espacial James Webb analizó la luz que atraviesa su atmósfera. Detectó compuestos como metano, dióxido de carbono y, lo más sorprendente, dimetil sulfuro (DMS) y dimetil disulfuro (DMDS). En la Tierra, estas sustancias las generan solo los organismos vivos, especialmente microorganismos marinos como el fitoplancton.A pesar del entusiasmo, los científicos son cautelosos. El hallazgo es tentador, pero aún no es una prueba definitiva de vida. Para que lo fuera, la señal tendría que alcanzar un nivel de confianza del 99.99999 %. Por ahora está en el 99.7 %, lo que aún deja espacio para dudas. Además, hay desacuerdo entre expertos sobre si estos gases podrían generarse por procesos no biológicos, como actividad geológica desconocida. Incluso hay quienes creen que el planeta podría no tener una superficie sólida, sino estar cubierto por un océano de magma. También se discute si su atmósfera es demasiado caliente y espesa para permitir vida como la conocemos.El profesor Nikku Madhusudhan, de la Universidad de Cambridge, lidera este estudio. Él cree que, si se confirma que estos gases provienen de vida, el universo estaría lleno de otros mundos habitados. Para lograr esa confirmación, bastarían entre 16 y 24 horas más de observación del telescopio Webb, aunque esas horas podrían tardar años en asignarse. Mientras tanto, se seguirán haciendo pruebas en laboratorios para comprobar si los compuestos pueden originarse sin vida. Lo que sí está claro es que estamos cada vez más cerca de responder una pregunta que la humanidad se hace desde hace milenios: ¿estamos solos?K2-18b es un ejemplo de lo que los astrónomos llaman un “planeta hyceano”: mundos más grandes que la Tierra, cubiertos de océanos y con una atmósfera rica en hidrógeno. Hasta hace poco, se pensaba que solo los planetas rocosos como el nuestro podían ser habitables. Pero los hyceanos amplían esa posibilidad. En 2023, el telescopio Hubble ya había detectado vapor de agua en este planeta. Luego, el telescopio Webb confirmó la presencia de moléculas con carbono, y ahora se suman estas posibles huellas de vida. Aunque hay escepticismo, este descubrimiento está motivando nuevas misiones espaciales y futuros telescopios, como el Observatorio de Mundos Habitables que planea lanzar la NASA en la década de 2040.Científicos detectaron en K2-18b gases que en la Tierra solo produce la vida. Aún no es prueba definitiva, pero es la señal más prometedora hasta ahora. ¿Qué opinas? Escucha más noticias como esta en Flash Diario en Spotify
Zhúlóng, galaxia espiral temprana, desafía modelos cósmicos y centra atención global con nuevas imágenes Por Félix Riaño @LocutorCo La espiral más lejana es noticia porque se publicó su análisis completo y se revelaron imágenes inéditas que están dando mucho de qué hablar. Zhúlóng es una galaxia espiral tan antigua que su luz ha tardado 12.800 millones de años en llegar hasta nosotros. Su estudio detallado fue publicado recientemente por el equipo internacional de astrónomos que la identificó, justo cuando se están tomando decisiones importantes para nuevas observaciones del universo temprano.Esta galaxia fue captada por el telescopio espacial James Webb —que se conoce por su sigla JWST—, y muestra una estructura tan organizada que desafía todo lo que se pensaba sobre la formación de galaxias. Tiene brazos espirales bien definidos, un disco de estrellas en rotación y un núcleo denso con estrellas viejas. ¿Cómo es posible que una estructura tan ordenada ya existiera cuando el universo era apenas un bebé cósmico? El dragón galáctico muestra un orden inesperado en pleno caos primordial Para entender qué es una galaxia espiral, imagina un remolino de estrellas girando en el espacio. En el centro hay una zona muy brillante llena de estrellas viejas, y desde ahí se extienden brazos curvos donde nacen nuevas estrellas a partir del gas y el polvo. Zhúlóng tiene exactamente esa forma.Fue detectada gracias a una modalidad especial del JWST llamada “pure parallel”, que le permite observar regiones del universo de manera secundaria mientras su instrumento principal estudia otro objetivo. Así se logra aprovechar cada minuto de funcionamiento del telescopio para cubrir más cielo. Zhúlóng apareció en esas observaciones paralelas, como un regalo inesperado. Su nombre viene del Dragón Antorcha de la mitología china, una criatura que crea el día y la noche abriendo y cerrando los ojos, lo que representa el paso del tiempo y la luz. Esta galaxia está a una distancia tan grande que la estamos viendo como era hace 12.800 millones de años, cuando el universo tenía menos del 10 % de su edad actual. Los modelos actuales dicen que las galaxias grandes como la Vía Láctea tardan miles de millones de años en adquirir una forma ordenada. Según esas ideas, en los primeros tiempos del universo las galaxias debían ser pequeñas, desordenadas y llenas de choques. Pero Zhúlóng contradice esa historia. Tiene un disco de 60.000 años luz de ancho —lo que equivale a más de 560.000 billones de kilómetros— y una masa estelar de aproximadamente 100.000 millones de veces la del Sol. Además, su forma es estable y sus brazos muestran poca turbulencia.Estos detalles no cuadran con la teoría de que las galaxias tardan mucho en organizarse. Por eso, Zhúlóng se ha vuelto tan importante: está en el centro del debate astronómico, justo cuando se están planificando nuevas investigaciones con el JWST y con ALMA, que es el conjunto de 66 antenas en el desierto de Atacama, en Chile, que observa las ondas milimétricas del universo para estudiar el gas frío donde nacen las estrellas. Ahora los investigadores quieren usar a fondo estos dos observatorios para mirar a Zhúlóng desde distintos ángulos. Con el espectrógrafo NIRSpec del JWST van a estudiar la luz que emiten sus estrellas para saber su composición, su edad y su movimiento. Y con ALMA van a buscar rastros de gas molecular frío, como el monóxido de carbono, para saber si esa galaxia tiene aún materia prima para formar más estrellas.También esperan averiguar si ese gas viene cayendo desde afuera, alimentando el disco, o si todo ya está en calma. Al comparar con otras galaxias descubiertas por el JWST, como Ceers-2112, que es más cercana en el tiempo pero menos masiva, van a poder armar un mapa más claro de cómo evolucionaron las primeras galaxias. Lo que se descubra con Zhúlóng puede cambiar lo que se enseña en los colegios sobre cómo se formaron las galaxias. Zhúlóng está ayudando a entender mejor cómo era el universo en su infancia, en una época en que todavía no existían ni el Sol ni la Tierra. El telescopio JWST detecta galaxias tan lejanas gracias a su capacidad para observar la luz infrarroja, que es como una especie de calor que viaja durante miles de millones de años.Esa luz cambia de color debido a la expansión del universo, lo que permite calcular su antigüedad. Cuando se observa una galaxia tan lejana como Zhúlóng, se está viendo cómo era en el pasado, porque su luz salió de allí mucho antes de que existiera nuestro sistema solar. Su imagen es púrpura y naranja porque esos colores representan diferentes temperaturas del polvo y del gas en las imágenes procesadas. Que tenga brazos espirales significa que ya había orden y rotación estable en un universo que se creía caótico. Por eso, esta galaxia se ha convertido en protagonista de las celebraciones de la Semana Mundial de la Astronomía y está siendo compartida en planetarios y escuelas de todo el mundo. Zhúlóng es una galaxia espiral del universo temprano que pone en duda lo que creíamos saber sobre cómo se forman las galaxias. Para seguir aprendiendo con historias como esta, escucha el pódcast Flash Diario en Spotify.
Sony aumenta el precio de la PS5 digital en Europa; América Latina ya ha sido afectada antes Por Félix Riaño @LocutorCo Sony ha subido el precio de una de sus consolas más populares: la versión digital de la PlayStation 5. Este modelo, que no incluye lector de discos y solo permite juegos descargados, tendrá un costo más alto en Europa, Reino Unido, Australia y Nueva Zelanda. En Europa, el valor recomendado pasa de 449 a 499 euros, y en el Reino Unido, de 389 a 430 libras esterlinas. También sube en Australia y Nueva Zelanda. La empresa explica que la inflación y los tipos de cambio son parte de las razones. Aunque América Latina no está en esta lista de países, ya vivió una subida parecida en 2022. ¿Se repetirá la historia en la región? La edición digital ya había subido antes en Latinoamérica Sony publicó en su blog oficial el aviso de que va a aumentar el precio de la PlayStation 5 Digital Edition, su versión más económica. Esta consola es igual en potencia y juegos a la PS5 tradicional, pero sin la ranura para discos: todo se descarga desde internet. El precio pasa a 499 euros en Europa, 430 libras en Reino Unido, 749 dólares australianos en Australia y 859 dólares neozelandeses en Nueva Zelanda. La subida oscila entre el 10% y el 25%, según el país. La versión con lector de discos, conocida como estándar, y la PS5 Pro, no cambian de precio por ahora. En América Latina, Sony ya había hecho lo mismo en 2022, cuando subió los precios en México, llevando la edición digital hasta los 12.499 pesos mexicanos. Esto hace pensar que los países hispanohablantes podrían estar en la mira para futuros ajustes. La noticia no llega sola: coincide con una serie de medidas del gobierno de Estados Unidos que afectan a la tecnología global. El presidente Donald Trump ha reactivado tarifas a las importaciones desde países como China y Japón, con aranceles de hasta 145% en algunos casos. Aunque se anunció una suspensión temporal para ciertos productos como smartphones y portátiles, las consolas de videojuegos quedaron fuera. Eso significa que podrían ser más caras de fabricar y distribuir. Bloomberg calcula que una PS5 digital, cuyo precio actual es de 399 dólares en Estados Unidos, podría costar hasta 518 dólares con un incremento del 30%. Nintendo también está preocupada: anunció que retrasaría las reservas de su consola Switch 2 en Estados Unidos para evaluar el impacto de estos aranceles. Las tarifas no se aplican directamente a América Latina, pero podrían alterar toda la cadena de suministro, elevando precios de manera indirecta. Nintendo fue una de las primeras en reaccionar con cautela ante el nuevo entorno económico. Su esperada consola portátil Switch 2, cuyo precio global sería de 450 dólares, aún no ha abierto reservas en Estados Unidos por temor a los aranceles. Doug Bowser, presidente de Nintendo América, aclaró que el precio no incluye tarifas, lo que deja la puerta abierta a futuras subidas. En América Latina, aunque los precios de la PS5 aún no han cambiado en 2025, sí lo hicieron en años anteriores. En 2022, Sony ajustó precios en México, y en 2023, aumentó el valor de suscripciones como PlayStation Plus en varios países de habla hispana. Colombia, Perú, Chile y Brasil vieron incrementos de entre el 8% y el 21% según el plan contratado. Esos cambios no fueron casuales: también se justificaron por la inflación y los costos de operación. Esto confirma que la región ya forma parte del mapa de ajustes globales de Sony. Además de los precios de consolas, hay un patrón de aumentos en servicios digitales. En septiembre de 2023, Sony ajustó los precios de PlayStation Plus en América Latina. En Colombia, el plan más básico pasó de 26.000 a más de 29.000 pesos mensuales. El plan Premium anual superó los 300.000 pesos. Sony justificó esto por las mejoras en la oferta de juegos, pero los jugadores vieron una presión directa sobre sus bolsillos. Por otra parte, Japón recibió aranceles del 24% en exportaciones hacia Estados Unidos. Aunque estos están pausados por 90 días, el gobierno japonés no planea ceder en sus negociaciones. Las consolas de Sony y Microsoft se producen mayoritariamente en China, país afectado por los nuevos aranceles. América Latina depende de las importaciones tecnológicas, por lo que un encarecimiento de componentes, logística o ensamblaje repercute en los precios finales para los consumidores. La tendencia es clara: el alza de precios puede extenderse aún más. La PlayStation 5 Digital Edition sube de precio en varios países y América Latina ya tiene antecedentes. Los servicios como PlayStation Plus también se han encarecido en la región. Si quieres entender cómo estos cambios te afectan, escucha Flash Diario, donde hablamos de tecnología, videojuegos y lo que pasa en el mundo. BibliografíaABC News ForbesThe GuardianYahoo FinanzasConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
Samsung detuvo la actualización One UI 7 por fallas graves. Usuarios reportan errores de seguridad y desbloqueo Por Félix Riaño @LocutorCo Samsung pausó el despliegue de One UI 7, su sistema basado en Android 15, por errores de seguridad y funcionamiento en Galaxy S24 y otros modelos. La felicidad por la llegada de One UI 7 a los Galaxy duró poco. Samsung detuvo el despliegue global de su nueva interfaz por un error grave que afecta a usuarios del Galaxy S24. El sistema, que prometía mejoras visuales e inteligencia artificial avanzada, ahora genera problemas para desbloquear el teléfono y expone fotos privadas fuera de la Carpeta Segura. ¿Qué pasó exactamente? ¿Y qué deben hacer quienes ya lo instalaron? Vamos a explicarlo todo en este episodio, incluso si no usas un Galaxy. El sistema nuevo… terminó cancelando su propia fiesta One UI 7 era la actualización más esperada del año para usuarios Samsung. Llegó a algunos modelos, como los Galaxy S24, Z Fold 6 y Z Flip 6, e incluía rediseño visual, funciones con IA, una barra Now más inteligente y mejoras para grabar y editar. Entre ellas, Audio Eraser, capaz de limpiar sonidos de fondo en videos, y Writing Assist, para redactar y resumir textos. También prometía una experiencia cercana a la de los nuevos Galaxy S25. Pero tras solo unos días de haberse lanzado en Corea del Sur y otros países, algo salió muy mal. Una filtración del reconocido tipster IceUniverse reveló que la actualización fue retirada de los servidores de Samsung luego de detectar un error grave. Algunos usuarios del Galaxy S24 informaron que no podían desbloquear sus teléfonos después de instalarla. Además, medios especializados como SamMobile descubrieron un fallo en la Carpeta Segura: fotos privadas quedaban visibles fuera de su espacio protegido al ser usadas en “Historias” automáticas creadas por la app de Galería. Samsung no ha emitido un comunicado oficial detallado, pero ya suspendió la actualización en todo el mundo. También eliminaron el cronograma de despliegue para países como Vietnam. Y aunque en algunos teléfonos el sistema funciona sin problemas, nadie sabe cuándo volverá a estar disponible. Samsung aseguró que está “actualizando el calendario de lanzamiento para garantizar la mejor experiencia posible”. Pero hasta el momento, no hay una nueva fecha. Esto afecta a quienes ya recibieron One UI 7 y también a quienes la estaban esperando en abril, mayo o junio. La lista incluía Galaxy S23, S22, S21, Tab S9, A34, A35 y varios modelos más. Incluso usuarios que ya tienen instalado el sistema en su Galaxy S25 se preguntan si también están en riesgo.Los expertos recomiendan revisar si tu teléfono instaló la versión y, de ser así, desactivar la función de “crear historias automáticas” dentro de la Carpeta Segura, como medida preventiva. Basta con ir a Galería > Menú > Ajustes > y desactivar esa opción. Mientras tanto, queda claro que One UI 7 no estaba listo. Y eso deja en el aire no solo una actualización, sino la confianza en el manejo de la privacidad por parte de Samsung. One UI 7 es la capa de personalización que Samsung pone sobre Android 15. Cambia el aspecto visual del sistema, añade funciones como la barra Now, integra herramientas con inteligencia artificial y mejora detalles como la grabación de audio y la escritura asistida. Se esperaba que llegara a decenas de modelos Galaxy antes de que Android 16 aparezca en junio.Pero este incidente representa la primera vez que Samsung detiene un despliegue global de esta magnitud. En Ars Technica lo describieron así: “Más bien parece Zero UI”. La decisión de lanzar la actualización sin identificar el error muestra que las pruebas beta no fueron suficientes. El error de seguridad es tan básico que no hace falta forzar el sistema: simplemente ocurre. Además, la nueva interfaz no es compatible con otros fabricantes. Si estabas buscando “One UI 7” en tu Motorola, tu Xiaomi o tu Oppo… no la vas a encontrar. Samsung detuvo One UI 7 por fallos graves que afectan seguridad y funcionamiento. Si ya la tienes, desactiva las historias automáticas en la Carpeta Segura. Si aún no, mejor esperar. Y sigamos atentos aquí en Flash Diario, donde te explicamos cada paso del mundo digital:Flash Diario en Spotify
One UI 7 de Samsung renueva la interfaz y agrega IA, funciones interactivas y mejoras de seguridad Por Félix Riaño @LocutorCo One UI 7 es el nuevo software de Samsung, basado en Android 15. Mejora la usabilidad y trae IA avanzada, Audio Eraser y barra Now.¿Qué es One UI 7? Es la nueva capa de personalización de Samsung sobre Android 15, diseñada para que tu Galaxy se sienta moderno y eficiente. Trae un rediseño con íconos más claros, transiciones fluidas y herramientas como Audio Eraser, que elimina ruidos de fondo de los videos. También suma Drawing Assist, que convierte tus bocetos en dibujos limpios, y la barra Now, que aparece para mostrarte resultados de fútbol, música en reproducción o notificaciones urgentes. Además, estrena integración profunda con la inteligencia artificial de Google Gemini, capaz de entenderte casi como si fuese un amigo. Quienes tengan un Galaxy lanzado en los últimos años van a notar una experiencia similar a la del nuevo S25. Pero si usas otra marca, esto no te va a funcionar One UI 7 no es un simple “parche”. Es un gran salto en la forma como interactuamos con nuestros teléfonos Samsung. Nació de la idea de acercar a los usuarios a una interfaz más intuitiva, para que todo sea fácil de encontrar. Por ejemplo, si sientes cansancio visual, puedes decir “me duelen los ojos” y la IA te sugiere bajar brillo o activar el modo descanso. Audio Eraser rescata momentos grabados en lugares ruidosos: una charla en un parque lleno de gente deja de ser inentendible. Así, el software se convierte en un aliado diario. Muchos lo describen como un puente entre la tecnología y la comodidad. Claro, no todo resulta tan rápido. Samsung estructuró esta actualización por “grupos”. En abril, la fiesta comienza con la familia S24 (S24, S24+ y S24 Ultra) y los plegables de moda: Z Fold 6 y Z Flip 6. También se suman la edición especial Z Fold SE y la tableta Tab S10. ¿Alguien más? Sí, el S23 y el S24 FE. En mayo, la puerta se abre para Galaxy Z Fold 4, Flip 4, Tab S9 y la serie S22, entre otros. Junio será la cita para los Galaxy A de gamas más accesibles y modelos Tab S9 FE. Muchos usuarios de otras marcas podrían pensar: “Busco One UI 7 en mi tienda de apps y no lo encuentro”. Exacto: es un software exclusivo de Samsung, así que no está disponible para otros teléfonos. Este proceso de actualización tardará cerca de tres meses en completarse. Samsung promete una distribución escalonada en distintas regiones, por lo que algunos países la reciben antes que otros. Para saber si tu equipo ya fue elegido, ve a Ajustes > Actualización de software y revisa. El paquete puede pesar más de 5 gigabytes, así que conviene usar Wi-Fi y tener espacio libre.¿Vale la pena? Muchas personas creen que sí. One UI 7 transforma la experiencia diaria con el celular, agregando funciones como la barra Now, que asoma sin interrumpir el video o juego que tienes en pantalla. Además, el asistente con IA resulta más amigable, reconociendo frases coloquiales. El rediseño de íconos facilita ver notificaciones de un vistazo, y la opción Drawing Assist divierte a quienes disfrutan dibujando. Quienes ya la recibieron en modelos S24, S23 o Fold 6 afirman que el sistema luce estable y ágil. Así que, paciencia: tu turno llegará pronto. ¿Por qué es importante saber de One UI 7 incluso si no usas Samsung? Esta versión podría marcar tendencias en la personalización de Android. Su barra emergente Now, por ejemplo, es un adelanto de lo que otras marcas podrían imitar, al ofrecer información en tiempo real sin obligarte a salir de lo que estás haciendo. La integración con la IA de Google Gemini también puede incentivar el desarrollo de asistentes más humanos en diferentes dispositivos.Otro detalle destacable es la facilidad para retocar el audio en tiempo real: antes necesitabas programas adicionales. Ahora, con Audio Eraser, tu celular elimina el murmullo de fondo. Writing Assist, por su lado, resume documentos o reformatea el texto para que suene más claro. Esto sirve en momentos de oficina, escuela o incluso si envías correos rápidos. Es probable que veamos más actualizaciones a One UI 7, corrigiendo pequeños bugs y mejorando la compatibilidad con apps de terceros. One UI 7 es la nueva cara de los Samsung Galaxy modernos: rediseño, IA mejorada y herramientas como Audio Eraser y Drawing Assist. Verifica en Ajustes si ya puedes actualizar. Si no usas un Galaxy, tranquilo: te mantendremos al día de las novedades tecnológicas. Sigue escuchando en Flash Diario: Flash Diario en SpotifyOne UI 7 llega a Samsung con IA, barra Now y Audio Eraser. Revisa si tu Galaxy puede actualizarse ya. BibliografíaMirror UKForbesSamMobileConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
OpenAI mejora ChatGPT con memoria extendida, permitiendo respuestas personalizadas y recordando detalles previos. Usuarios pagos acceden primeroPor Félix Riaño @LocutorCo La empresa OpenAI anunció este jueves la incorporación de una nueva opción de memoria en ChatGPT. Los usuarios de los planes Pro y Plus podrán activar la función para personalizar aún más sus conversaciones. La herramienta registra datos de interacciones previas y ofrece respuestas basadas en información compartida con anterioridad. La intención es hacer que este asistente virtual sea más fluido y cercano a las necesidades de cada persona. Algunos países de Europa no contarán con la actualización inmediatamente por temas de regulación. Aun así, OpenAI mantiene su plan de llevar la novedad a todos los usuarios. ¿Será este el paso clave para que la inteligencia artificial se convierta en una aliada cotidiana? Algunos dudan de la privacidad, pero otros celebran la comodidad La memoria mejorada de ChatGPT busca que no repitas tus datos cada vez que conversas con la herramienta. OpenAI quiere que el sistema se adapte a tu estilo y recuerde detalles que le has contado. Así logra sugerirte soluciones o consejos más precisos. Google mostró algo similar en febrero con su tecnología Gemini. Ahora, la competencia se intensifica. ChatGPT Pro y Plus serán los primeros en disfrutar de esta característica, exceptuando países que requieren más revisiones legales. Todavía no hay información sobre la versión gratuita. La idea es ofrecer un asistente más eficiente. Muchos ven este paso como un avance hacia interacciones más humanas con la inteligencia artificial. La nueva memoria de ChatGPT genera inquietudes en varios usuarios. Muchos temen que su información personal sea recopilada sin su consentimiento pleno. Existe la opción de desactivar la función y también se puede pedir al sistema que olvide detalles puntuales. Aunque la empresa asegura que el propósito es mejorar la experiencia, ciertos sectores ven un riesgo en la acumulación de datos confidenciales. Varios países europeos han bloqueado o retrasado esta función por requerir revisiones especiales de cumplimiento. No todos confían en que la inteligencia artificial respete la privacidad en todo momento. Además, no se ha dado fecha para usuarios gratuitos, lo cual plantea desigualdades. ¿Es un precio razonable por la comodidad de conversaciones más fluidas? Algunos especialistas piden más transparencia en el manejo de las memorias guardadas. La empresa confía en que este paso consolide a ChatGPT como un aliado clave en el día a día. Quienes pagan los planes Pro y Plus van a recibir mejoras constantes y la posibilidad de chatear sin tener que repetir información básica. Al mismo tiempo, OpenAI ha habilitado modos temporales de conversación para quienes deseen una interacción sin registro de datos. Se trata de una idea simple: proporcionar respuestas más útiles basadas en gustos o detalles compartidos. Sam Altman, líder de OpenAI, expresó su emoción con la nueva función. También comentó que la compañía espera integrar la memoria mejorada con desarrollos futuros, incluyendo creaciones de voz e imágenes. Aunque su adopción se enfrenta a barreras legales en ciertas regiones europeas. Aun así, los voceros de la empresa reiteran su compromiso de cumplir las normativas. Algunos comparan esta evolución con la de asistentes virtuales previos, pero la velocidad de cambio es superior. El objetivo general es un ChatGPT más humano y capaz de aprender de cada conversación. Para usuarios que no quieran exponer su información, la opción de desactivar la memoria sigue estando disponible. Muchos ven esto como un equilibrio razonable entre personalización y protección de datos. La discusión no termina aquí, porque surgen nuevas preguntas sobre los límites de la inteligencia artificial y su papel en la cotidianidad. La conferencia StrictlyVC organizará un evento en Londres el 13 de mayo para debatir avances en inteligencia artificial y tecnología de riesgo. Esta iniciativa busca reunir a inversionistas, emprendedores y expertos en un espacio de conversación abierto. Mientras tanto, publicaciones como TechRadar y Business Insider resaltan que la memoria de ChatGPT no es del todo nueva. ChatGPT ya podía recordar cierto contexto, aunque su capacidad era limitada. Con la actualización, la inteligencia artificial cruza datos de distintas sesiones para ofrecer respuestas más acertadas. Quienes trabajan en proyectos de gran complejidad celebran esta mejora. Afirman que se facilita la continuidad en tareas como redacción, análisis de código o planificación de contenido. Según varios artículos, Google también avanza con nuevas características en su modelo Gemini. El panorama tecnológico se perfila muy dinámico. La integración de ChatGPT en entornos educativos y laborales podría ser decisiva. Los próximos meses darán más indicios de la dirección que tomarán estas herramientas y cómo afectarán la forma en que usamos la inteligencia artificial en la vida diaria. OpenAI introduce una función de memoria mejorada en ChatGPT para ofrecer respuestas basadas en conversaciones pasadas. Hay entusiasmo y también inquietud sobre la privacidad. La herramienta está disponible primero para usuarios de pago. ¿Qué opinas de esta evolución? Comenta y reflexiona, y sigue nuestro pódcast en Flash Diario.Te invitamos a descubrir más ventajas y a compartir tus impresionesBibliografíaTechcrunchTech RadarBusiness Insider CNETConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
Mapa cerebral detallado: Investigadores cartografían un milímetro cúbico de cerebro de ratón con 3,2 kilómetros de conexiones neuronales Por Félix Riaño @LocutorCo Un equipo científico superó los límites de la neurociencia al mapear millones de sinapsis en un fragmento cerebral microscópico. En 1979, el Nobel Francis Crick consideró que era imposible descifrar la maraña interna de un minúsculo trozo de cerebro. Décadas después, más de cien expertos reunieron 1,6 petabytes de información para demostrar lo contrario. Han analizado un milímetro cúbico de tejido cerebral de ratón que contiene millones de sinapsis y más de 3 kilómetros de filamentos neuronales. Las imágenes en alta resolución, capturadas mediante microscopía electrónica y combinadas con inteligencia artificial, han abierto nuevas ventanas para comprender enfermedades como Alzheimer o Parkinson. Este nivel de detalle asombra, porque revela patrones de conexiones que antes eran un misterio. ¿Qué hallazgos van a descubrir luego con esta nueva cartografía? La complejidad neuronal también despierta dudas sobre su verdadero alcance El proyecto MICrONS tomó un milímetro cúbico del cerebro visual de un ratón y lo partió en unas 25.000 secciones. Cada sección fue fotografiada con microscopio electrónico para obtener una visión detallada de cada célula. Esos datos se combinaron con grabaciones de la actividad cerebral en vida, mientras el animal miraba videos y contenidos en una pantalla. Luego, expertos de Princeton organizaron toda esa información en un modelo tridimensional. Así, se obtuvo el mapa de cientos de miles de neuronas con millones de sinapsis, en un volumen del tamaño aproximado de un grano de arena. Estas redes neuronales se representan con tonos de colores vivos que muestran cada célula y cada circuito, como si fuera un bosque iluminado. La gran dificultad surge al querer entender cómo se comunican las neuronas en semejante densidad de conexiones. Cada célula envía impulsos eléctricos y sustancias químicas a cientos o miles de células vecinas. Aun con la tecnología disponible, es complicado detectar si una neurona establece un vínculo directo o si su señal pasa por varias estaciones intermedias. Además, surge la necesidad de corregir errores en el trazado automático de rutas neuronales. El volumen masivo de datos —que puede equivaler a 22 años de video HD ininterrumpido— requiere enormes recursos computacionales y trabajo humano para revisar y ajustar. Esto explica por qué Francis Crick pensó que era un reto inalcanzable. Los avances fueron posibles gracias a algoritmos de inteligencia artificial y a un arduo trabajo en equipo. La reconstrucción final de este milímetro cúbico de cerebro de ratón aporta evidencias sobre cómo las células inhibitorias y excitatorias se organizan. Estas últimas son responsables de encender la actividad neuronal, mientras que las inhibitorias se encargan de regular y refinar ese impulso. Se creía que las células inhibitorias funcionaban como un simple freno. Ahora, se sabe que eligen de manera muy precisa a qué neuronas controlar. Este entramado complejo, repleto de detalles microscópicos, se vuelve un banco de pruebas para las teorías del aprendizaje profundo en máquinas y abre caminos para entender enfermedades neuronales. Las conclusiones podrían brindar nuevas pistas sobre la conciencia, la inteligencia y los trastornos que interrumpen la comunicación interna del cerebro. Investigadores de prestigiosas instituciones afirman que esta cartografía digital es comparable al Proyecto Genoma Humano por su valor transformador. Todo indica que vamos a seguir aprendiendo mucho de esta región cerebral diminuta. La iniciativa surgió como parte del MICrONS Project, financiado por la agencia IARPA en Estados Unidos. Baylor College of Medicine recabó datos de actividad cerebral en ratones despiertos. El Allen Institute se encargó de cortar el tejido en láminas ultrafinas de unas 0,25 micrómetros de grosor (casi 1/400 del espesor de un cabello humano) para fotografiarlas. Princeton aplicó algoritmos de visión por computador y aprendizaje profundo para reconstruir la forma completa de cada neurona. Estos procedimientos crearon un gran desafío de administración de datos y versiones, ya que cada error de interpretación podía cambiar todo el resultado. Herramientas personalizadas de control de versiones y de corrección automatizada permitieron avanzar. Además, la presencia de imágenes funcionales y estructurales en el mismo conjunto de datos ofreció un panorama integral, permitiendo correlacionar actividad eléctrica real con conexiones anatómicas. Este enfoque sienta bases sólidas para futuras investigaciones que van a explorar circuitos aún más complejos. En este Flash Diario revisamos el logro de mapear un trozo de cerebro de ratón y observar millones de sinapsis. El avance ayuda a comprender cómo se conectan las células y a diagnosticar padecimientos neurológicos. Te invitamos a seguir nuestro pódcast en Spotify llamado Flash Diario para descubrir más noticias así de fascinantes.BibliografíaThe New York TimesThe TimesThe GuardianNatureConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.