FLASH DIARIO de El Siglo 21 es Hoy

Follow FLASH DIARIO de El Siglo 21 es Hoy
Share on
Copy link to clipboard

Flash Diario, de El Siglo 21 es Hoy. Es el pódcast informativo que te mantiene al día con las noticias más recientes y más relevantes del siglo 21. ¡En menos de 5 minutos! Y es un producto informativo de ElSiglo21esHoy.com Cada episodio de Flash Diario te ofrece una dosis diaria de actualidad en formato breve y conciso, presentando las noticias más importantes en diferentes ámbitos como la tecnología, la ciencia, la cultura y la sociedad. Con Flash Diario no tienes que preocuparte por perderte ninguna novedad o avance importante en tu día a día. En menos de 5 minutos te ofrecemos la información más relevante de manera clara y precisa, para que puedas estar al tanto de lo que sucede en el mundo sin perder tiempo ni detalles. Flash Diario es el compañero perfecto para las personas que quieren estar al tanto de las últimas noticias pero no tienen tiempo para seguir programas más largos y detallados. Con Flash Diario estarás siempre actualizado, informado y preparado para cualquier conversación o situación que se presente. ¡Suscríbete ahora y no te pierdas ni un solo flash informativo! Suscríbete gratis en: ➜ YouTube: https://bit.ly/FlashDiario ➜ Spotify: https://spoti.fi/3MRBhwH ➜ Apple Podcasts: https://apple.co/3BR7AWe This show is part of the Spreaker Prime Network, if you are interested in advertising on this podcast, contact us at https://www.spreaker.com/show/5835407/advertisement

@LocutorCo

Donate to FLASH DIARIO de El Siglo 21 es Hoy


    • Dec 29, 2025 LATEST EPISODE
    • weekdays NEW EPISODES
    • 5m AVG DURATION
    • 752 EPISODES


    Search for episodes from FLASH DIARIO de El Siglo 21 es Hoy with a specific topic:

    Latest episodes from FLASH DIARIO de El Siglo 21 es Hoy

    Cambiar tu Gmail

    Play Episode Listen Later Dec 29, 2025 6:30 Transcription Available


    Google va a permitir cambiar direcciones @gmail.com sin perder datos ni accesos.Por Félix Riaño @LocutorCoDurante años, tu dirección de Gmail era una decisión para toda la vida. Si elegiste un nombre extraño, infantil o poco profesional, no había marcha atrás. Podías cambiar tu nombre visible, pero la dirección terminada en @gmail.com quedaba fija para siempre. Muchas personas convivieron con eso por trabajo, estudios y trámites oficiales. Hoy esa regla empieza a moverse.Google confirmó en una página de soporte que va a habilitar, de forma gradual, una opción muy esperada: cambiar tu dirección @gmail.com por otra nueva, sin crear una cuenta distinta y sin perder nada. La información apareció primero en India y ya está generando preguntas claras. ¿Cuándo llegará a otros países? ¿Qué pasa con los correos antiguos? ¿Habrá riesgos reales para tu cuenta?El giro llega tardeDurante mucho tiempo, Gmail fue rígido con este tema. Si tu cuenta terminaba en @gmail.com, la respuesta oficial era simple: no se puede cambiar. La única salida era crear otra cuenta desde cero. Eso implicaba mover contactos, fotos, documentos, suscripciones y accesos a servicios como YouTube, Maps o Drive. Para muchas personas, ese cambio era inviable.Ahora, en un documento oficial de ayuda, Google explica un proceso nuevo. El texto aparece, por ahora, solo en hindi. Aun así, el mensaje es claro. Vas a poder cambiar tu dirección @gmail.com por otra también terminada en @gmail.com. No será una cuenta nueva. Será la misma cuenta, con dos direcciones activas. La original quedará como alias y seguirá funcionando.Este cambio llega con reglas claras que conviene entender bien. La primera: no es inmediato para todo el mundo. Google dice que el despliegue será gradual. Eso significa que algunas personas lo verán antes y otras tendrán que esperar semanas o meses.La segunda regla es el tiempo. Una vez hagas el cambio, no vas a poder modificar ni eliminar direcciones durante doce meses completos. Un año entero. Eso obliga a pensar bien el nuevo nombre antes de confirmarlo.También hay límites. Cada cuenta podrá tener hasta cuatro direcciones en total. Es decir, la original más tres cambios posibles a lo largo del tiempo. Además, tu dirección antigua seguirá apareciendo en algunos lugares, como eventos viejos de Google Calendar creados antes del cambio. No todo se actualiza de golpe.La parte más tranquila de esta historia es la que tiene que ver con tus datos. Google asegura que nada se pierde. Fotos, correos antiguos, mensajes, archivos de Drive y compras seguirán exactamente igual.Vas a poder iniciar sesión con la dirección vieja o con la nueva. Ambas llevarán a la misma cuenta. Los correos enviados a cualquiera de las dos direcciones llegarán al mismo buzón. Incluso vas a poder seguir enviando correos desde la dirección antigua si así lo deseas.La dirección original seguirá siendo tuya para siempre. Nadie más podrá usarla. Eso reduce riesgos de suplantación o confusión. Cuando la función esté activa, el cambio se hará desde “Mi cuenta”, en la sección de información personal, tanto en computador como en móvil.Este movimiento acerca a Gmail a lo que ya ofrecen otros servicios de correo. Outlook, por ejemplo, permite crear alias y cambiar direcciones desde hace tiempo. En Google Workspace, el servicio para empresas, estas opciones existen, pero bajo administración y pago.Por ahora, todo indica que el despliegue empezó en India y luego se irá ampliando a más países. No hay fecha oficial para América Latina o Europa, pero el lenguaje de Google apunta a un lanzamiento global progresivo.Si hoy entras a la configuración y no ves la opción, es normal. No significa que tu cuenta esté excluida. Significa que todavía no te toca. La recomendación es simple: revisar de vez en cuando la sección de correo en tu cuenta de Google y esperar el aviso.

    Apple abre el iPhone en Europa

    Play Episode Listen Later Dec 24, 2025 8:52 Transcription Available


    iOS 26.3 abre el iPhone a relojes y audífonos de otras marcas en Europa  Por Félix Riaño @LocutorCo  Apple acaba de hacer algo que durante años parecía impensable. Con iOS 26.3, el iPhone empieza a llevarse mejor con dispositivos que no son de Apple. Esto ocurre en Europa y no llega por voluntad propia, llega por obligación legal. Según explica Gadget Hacks, audífonos y relojes de otras marcas ahora pueden conectarse más fácil y recibir notificaciones completas desde el iPhone.Las dudas aparecen de inmediato: hasta dónde va a llegar esta apertura, qué funciones siguen siendo exclusivas y por qué este cambio se aplica en Europa y no en el resto del mundo.  Apple abre puertas, pero deja llaves en su bolsillo.  iOS 26.3 introduce cambios que alteran la forma en que el iPhone se conecta con otros dispositivos dentro de la Unión Europea. Apple activa nuevas funciones de interoperabilidad tras la presión directa de la Comisión Europea, en el marco de la Ley de Mercados Digitales, conocida como DMA, tal como recoge MacRumors.La lógica de esta ley es fácil de entender. Si una empresa controla una plataforma que millones de personas usan cada día, no puede cerrar el acceso a funciones básicas para favorecer solo a sus propios productos. En este caso, el iPhone actúa como esa plataforma dominante.Con esta actualización, Apple habilita dos funciones que antes estaban casi reservadas a su propio ecosistema: el emparejamiento por proximidad para accesorios de terceros y el reenvío completo de notificaciones a relojes inteligentes que no son Apple Watch. Son cambios técnicos que impactan directamente el uso cotidiano del teléfono.  Durante años, usar accesorios que no fueran de Apple con un iPhone implicaba más pasos y más fricción. Emparejar audífonos requería entrar a Ajustes, buscar Bluetooth y seguir varios pasos. Con AirPods, el proceso era inmediato. Esa diferencia se convirtió en una ventaja competitiva clara.Con los relojes pasaba algo similar. El Apple Watch recibía notificaciones completas, con texto, nombre de la aplicación y opciones de interacción. Otros relojes recibían avisos parciales o inestables. Como explica SamMobile, esto hacía que relojes como los Galaxy Watch perdieran atractivo cuando se usaban con iPhone.Aquí surge una duda central para los reguladores europeos: esa diferencia responde a límites técnicos reales o a decisiones de diseño pensadas para empujar al usuario hacia productos Apple. La DMA responde obligando a Apple a abrir ese acceso.  Con iOS 26.3, Apple permite que accesorios de terceros se emparejen por proximidad. En la práctica, unos audífonos de otra marca se pueden conectar acercándolos al iPhone y tocando una tarjeta en pantalla. El proceso se vuelve rápido y sencillo, muy similar al de los AirPods, como detalla MacRumors.También aparece un nuevo sistema de reenvío de notificaciones. Desde Ajustes, el usuario puede elegir un reloj inteligente de otra marca para recibir notificaciones completas del iPhone. Según 9to5Mac, esta función coloca a relojes de terceros mucho más cerca de la experiencia del Apple Watch.Apple mantiene un límite claro: las notificaciones solo se envían a un dispositivo a la vez. Si se activa un reloj de otra marca, el Apple Watch deja de recibirlas. Apple cumple la norma, pero sigue marcando el perímetro.  Estas funciones solo están activas en la Unión Europea. En el resto del mundo, los menús aparecen en el sistema, pero no funcionan. Apple aplica una estrategia muy precisa: cumplir exactamente donde la ley lo exige.La Comisión Europea, citada por 9to5Mac, ha celebrado estos cambios como un paso hacia un ecosistema digital más conectado. Para Apple, el riesgo económico explica el cuidado extremo. Las multas por incumplir la DMA pueden llegar hasta el diez por ciento de su facturación global anual.Además, este proceso no termina aquí. La Unión Europea también exige alternativas a AirDrop y AirPlay antes de 2026, mayor apertura del chip NFC para pagos y acceso a tecnologías avanzadas de audio. iOS 26.3 es apenas la primera señal visible de una transformación más amplia del iPhone en Europa.  iOS 26.3 empieza a cambiar la relación entre el iPhone y los dispositivos de otras marcas en Europa. Hay más opciones y menos fricción. La duda que queda es si este modelo se va a extender a otros países. Cuéntanos qué opinas y sigue Flash Diario en Spotify.  iOS 26.3 abre el iPhone a relojes y audífonos de otras marcas en Europa por presión legal.  

    Spotify bajo ataque

    Play Episode Listen Later Dec 23, 2025 8:27 Transcription Available


    Un grupo activista pirateó Spotify y afirma haber copiado metadatos y millones de archivos de audio Por Félix Riaño @LocutorCoSpotify confirma que un grupo activista logró copiar grandes volúmenes de información de su catálogo musical. La situación gira alrededor de metadatos públicos y de una parte de los archivos de audio alojados en la plataforma. Según los reportes, el grupo detrás de esta acción se presenta como un proyecto de preservación cultural y asegura haber reunido una base de datos musical sin precedentes. Spotify ya desactivó las cuentas implicadas y activó nuevas medidas de protección. La pregunta es directa y preocupa a artistas, sellos y oyentes: ¿estamos ante un caso de preservación digital o frente a un nuevo episodio de piratería masiva disfrazada de archivo cultural?Preservar cultura suena bien, pero los derechos de autor quedan en riesgo. Todo comienza con una publicación en Anna's Archive, un buscador conocido por alojar bibliotecas digitales no oficiales de libros y artículos científicos. Esta vez, el foco fue la música. El grupo afirma haber copiado información de Spotify a gran escala usando accesos públicos y técnicas para sortear protecciones digitales. Hablan de 256 millones de filas de metadatos musicales y de 86 millones de archivos de audio. En conjunto, el material ocuparía cerca de 300 terabytes, una cifra que equivale a miles de discos duros domésticos llenos hasta el borde.  Spotify reconoce que existió un acceso no autorizado y asegura que ya está investigando. La empresa explica que se trató de datos públicos combinados con métodos ilegales para acceder a parte del audio. Por ahora, solo los metadatos han sido liberados públicamente. El problema va más allá de la cantidad de datos. Los metadatos incluyen nombres de canciones, artistas, álbumes, portadas y códigos ISRC, que funcionan como el número de identificación de cada grabación en el mundo. Con esa información, cualquier persona con conocimientos técnicos podría reconstruir catálogos completos y analizarlos a fondo. Anna's Archive sostiene que su objetivo es evitar que la música desaparezca si una plataforma cambia políticas, elimina contenido o cierra. El argumento conecta con una preocupación real: el streaming no es propiedad, es acceso temporal. Pero aquí aparece la tensión. Este archivo también podría facilitar copias no autorizadas, entrenar sistemas de inteligencia artificial sin licencias o crear servidores privados que reproduzcan música sin pagar derechos. Para los artistas, sobre todo los independientes, el temor es claro: menos control y menos ingresos. Spotify ya respondió. La empresa desactivó las cuentas implicadas, reforzó sus sistemas de detección y dejó claro que trabaja con la industria musical para proteger a los creadores. También subrayó que este episodio no afecta datos personales de los usuarios.El grupo activista planea liberar los archivos de audio por etapas, empezando por las canciones más escuchadas, usando los propios datos de popularidad de Spotify. Dicen que la calidad del audio varía para reducir el tamaño de los archivos, lo que refuerza su discurso de archivo funcional y no de alta fidelidad.El desenlace sigue abierto. Habrá investigaciones, posibles acciones legales y un debate que ya está sobre la mesa: cómo preservar la cultura digital sin romper el modelo que paga a quienes la crean. Este caso puede convertirse en un precedente incómodo para toda la industria musical. Para entender la escala, conviene comparar. MusicBrainz, uno de los archivos musicales abiertos más grandes y legales del mundo, reúne alrededor de cinco millones de canciones. El archivo atribuido a Anna's Archive multiplica esa cifra muchas veces y cubre casi todo lo que realmente se escucha en Spotify.Los propios datos filtrados muestran algo llamativo: una pequeña fracción de canciones concentra la mayoría de las reproducciones, mientras millones de temas apenas reciben atención. Ese patrón refuerza el discurso del grupo, que critica el enfoque del streaming en la popularidad.También aparece otra preocupación: el uso de estos datos para entrenar modelos de inteligencia artificial musical sin acuerdos de licencia. Ya ocurrió antes con textos e imágenes. La música podría ser el siguiente campo de batalla. Este episodio deja claro que la tecnología avanza más rápido que las reglas que buscan ordenarla.Un grupo activista afirma haber copiado gran parte del catálogo de Spotify en nombre de la preservación cultural. Spotify investiga y refuerza su seguridad. El debate entre acceso, archivo y derechos de autor queda abierto. Cuéntanos qué opinas y sigue Flash Diario en Spotify BibliografíaBillboardPCMagTom's HardwareMusicAllyGizmodoThe Riff ReportConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    El planeta limón que nadie entiende

    Play Episode Listen Later Dec 22, 2025 8:58 Transcription Available


    Un planeta fuera del Sistema Solar desconcierta a la ciencia por su forma, su atmósfera y su origen  Por Félix Riaño @LocutorCo A más de mil kilómetros por segundo, una estrella muerta gira como un faro en el espacio profundo. A su alrededor, muy cerca, hay un objeto que no debería existir. Tiene el tamaño de Júpiter, la forma de un limón aplastado y una atmósfera hecha casi por completo de carbono. No tiene agua. No tiene oxígeno. No tiene nitrógeno. Y nadie sabe cómo pudo formarse. El PSR J2322-2650b se ha convertido en uno de los mayores misterios recientes de la astronomía moderna. Tal vez no sea un planeta como creemos.  Vamos a explicar qué se ha descubierto y por qué tiene tan desconcertada a la comunidad científica. Este objeto se encuentra a unos dos mil años luz de la Tierra y orbita un púlsar. Un púlsar es el núcleo colapsado de una estrella que explotó como supernova. Tiene casi la masa del Sol, pero comprimida en un espacio similar al tamaño de una ciudad. Gira muy rápido y lanza radiación constantemente. El planeta gira alrededor de ese púlsar a una distancia de apenas un millón seiscientos mil kilómetros. Para ponerlo en contexto, la Tierra está a unos ciento cincuenta millones de kilómetros del Sol. Por esa cercanía extrema, un año en este planeta dura solo unas ocho horas. La gravedad del púlsar lo estira de forma brutal, tanto que su diámetro ecuatorial es casi un cuarenta por ciento mayor que su diámetro polar. Por eso los astrónomos lo describen como un planeta con forma de limón.  Este mundo fue observado con el James Webb Space Telescope, que permitió analizar su atmósfera con un nivel de detalle nunca visto en un sistema de este tipo.  Aquí empieza el verdadero problema. Cuando los científicos estudiaron la atmósfera de PSR J2322-2650b esperaban encontrar gases comunes, como vapor de agua, metano o dióxido de carbono. Pero lo que apareció fue algo totalmente distinto. La atmósfera está dominada por helio y por carbono molecular, formas simples de carbono que casi nunca aparecen solas en planetas.  El carbono suele unirse a otros elementos. Para que exista de esta forma, casi no puede haber oxígeno ni nitrógeno. Y eso es justo lo que ocurre aquí. Entre más de ciento cincuenta planetas estudiados con este nivel de detalle, ninguno muestra una composición similar. Las temperaturas tampoco ayudan a explicarlo. En el lado más frío del planeta se alcanzan unos seiscientos cincuenta grados Celsius. En el lado más caliente, más de dos mil grados Celsius.  Con esos valores, el carbono debería reaccionar con otros elementos. Pero no lo hace. Esto rompe las teorías actuales sobre cómo se forman los planetas y cómo evolucionan sus atmósferas. Los modelos conocidos no encajan. Ninguno.  Ante este rompecabezas, los científicos manejan varias ideas. Una posibilidad es que este objeto no sea un planeta en el sentido clásico. Podría ser el resto de una estrella que orbitaba el púlsar y que fue perdiendo masa durante millones de años, como ocurre en los sistemas llamados “viuda negra”. En esos sistemas, el púlsar va despojando poco a poco a su compañero hasta casi hacerlo desaparecer.  Otra idea es que estemos viendo un tipo de objeto totalmente nuevo, algo que aún no tiene nombre. Un cuerpo que logró mantenerse estable alrededor de un púlsar durante miles de millones de años, resistiendo una radiación extrema y fuerzas gravitatorias enormes. En ese caso, la ciencia tendría que ampliar su definición de lo que puede existir en el universo.  Los datos del Webb sugieren que en su atmósfera pueden formarse nubes de hollín hechas de carbono. Con el tiempo, ese carbono podría cristalizar en el interior del planeta y formar diamantes. Un mundo rojo, cubierto de polvo oscuro, con tormentas que siguen su forma alargada. Un lugar que parece ciencia ficción, pero es real.  Por ahora, los investigadores van a buscar más sistemas similares. Solo así podrán saber si este planeta es una rareza absoluta o el primer ejemplo de una familia desconocida de mundos extremos.  Este hallazgo fue posible porque el sistema tiene una ventaja poco común. El púlsar emite sobre todo radiación de alta energía, como rayos gamma, que el Webb no detecta. Eso permite observar la luz del planeta sin que la estrella lo opaque, algo que no suele ocurrir con estrellas normales.  Además, este es el único planeta conocido con masa, tamaño y temperatura similares a un Júpiter caliente que orbita un púlsar. De los más de seis mil exoplanetas registrados hasta ahora, solo unos pocos están asociados a púlsares, y ninguno se parece a este.  El estudio fue publicado en The Astrophysical Journal Letters y ha sido destacado por la NASA y por medios como The New York Times. Todos coinciden en lo mismo: este objeto no encaja en ninguna caja conocida.Lejos de ser frustrante, este tipo de descubrimientos son los que empujan a la ciencia a avanzar. Cada vez que aparece algo así, las teorías se ajustan, se amplían o se descartan. Y eso nos acerca un poco más a entender cómo funciona realmente el universo.  Un planeta con forma de limón, una atmósfera de carbono y un origen desconocido acaba de poner en jaque a la astronomía. Vamos a seguir atentos a este misterio cósmico. Cuéntanos qué opinas y acompáñanos en Flash Diario  

    Fortnite Winterfest 2025

    Play Episode Listen Later Dec 19, 2025 7:26 Transcription Available


    Fortnite activa Winterfest 2025 con nieve, colaboraciones, regalos diarios y cambios jugables hasta eneroPor Félix Riaño @LocutorCoFortnite ya encendió oficialmente Winterfest 2025. El evento de fin de año transforma la isla con nieve, decoraciones festivas y una avalancha de contenido temporal. Desde hoy y hasta el 5 de enero de 2026, los jugadores van a encontrar colaboraciones muy llamativas, objetos clásicos que regresan al juego y una cabaña especial llena de sorpresas diarias. También aparecen nuevas mecánicas, un jefe peculiar y un enfoque inesperado en una de las franquicias más promocionadas. ¿Todo lo que parecía grande realmente lo es dentro del juego?La publicidad promete magia, pero la experiencia cuenta otra historia: Poco Harry PotterWinterfest 2025 ya está activo en Fortnite y se va a extender hasta el 5 de enero de 2026. Durante este periodo, Epic Games vuelve a modificar el battle royale con una ambientación navideña clara. La mitad norte del mapa aparece cubierta de nieve y varias zonas reciben árboles, luces y decoraciones de temporada.Se suma un nuevo punto de interés llamado Clawsy Lodge, una zona de cabañas pensada para aterrizajes rápidos y combates intensos al inicio de la partida. Además, regresa la cabaña de Winterfest, accesible desde el lobby. Allí se puede abrir un obsequio por día, hasta completar catorce en total.Un detalle clave es que estos premios se acumulan aunque no entres todos los días. Puedes volver más tarde y reclamar todo de una sola vez.Winterfest vuelve a ser un evento pensado para entrar, explorar y volver sin presión.La conversación aparece cuando se analizan las colaboraciones. Winterfest 2025 incluye cruces con Harry Potter, Sabrina Carpenter, Hatsune Miku, Bleach, SpongeBob y Volver al Futuro. En cantidad, el evento es enorme. En integración jugable, no todas las marcas reciben el mismo trato.Harry Potter destaca en el material promocional y en la ambientación visual de la cabaña, con referencias claras al mundo mágico. Pero dentro de las partidas, su presencia es muy limitada. No hay zonas del mapa dedicadas, no hay objetos especiales ni misiones propias. Todo queda concentrado en cosméticos de tienda y marketing.Esto ha generado debate entre jugadores porque Fortnite suele llevar sus grandes colaboraciones al centro del gameplay. Aquí eso no ocurre. Epic Games no ha explicado si este enfoque fue planeado desde el inicio o ajustado más tarde.Mientras algunas colaboraciones se quedan en lo visual, otras sí alteran la forma de jugar. Volver al Futuro es el mejor ejemplo. El DeLorean aparece como vehículo dentro del mapa. Al alcanzar ochenta y ocho millas por hora, activa una animación de viaje temporal y añade un cofre especial en el techo.Ese cofre contiene armas del botín clásico de Fortnite, como el fusil de asalto original y la escopeta de palanca. Ese mismo botín clásico también aparece en los presentes del evento, lo que cambia el ritmo de las partidas y mezcla estilos de juego antiguos con el actual.Regresan armas invernales como la granada de tormenta de nieve y el lanzador de bolas de nieve. Además, llega un nuevo jefe: el Yule Trooper. Al derrotarlo, puedes jugar como él, pero con un efecto permanente de pies congelados que vuelve cada movimiento un riesgo.En la tienda, Winterfest 2025 funciona como escaparate de skins festivas. Sabrina Carpenter recibe una versión navideña llamada Santa ‘Brina. Hatsune Miku aparece con atuendo invernal. Bleach suma cuatro personajes principales y SpongeBob aporta el Patty Wagon como vehículo especial.También hay filtraciones de colaboraciones aún no confirmadas, como Home Alone o Batman Beyond. En paralelo, Epic conecta Winterfest con su ecosistema. Hogwarts Legacy estuvo disponible sin costo en la Epic Games Store hasta el 18 de diciembre. Quienes jugaron al menos dos horas desbloquearon un accesorio exclusivo para Fortnite.Rocket League también participa con eventos temáticos de las casas de Hogwarts. Todo refuerza una idea clara: Fortnite ya no vive aislado. Winterfest es una vitrina de ese universo conectado.Winterfest 2025 trae nieve, colaboraciones, obsequios diarios y cambios jugables que mezclan nostalgia y humor. Algunas promesas se sienten más grandes en la publicidad que en el juego. Entra, prueba el evento y saca tus propias conclusiones. Y sigue Flash Diario en Spotify para más tecnología, ciencia y entretenimiento digital.Winterfest 2025 transforma Fortnite con nieve, colaboraciones famosas, obsequios diarios y decisiones creativas que están dando mucho de qué hablar.BibliografíaGameSpotIGNEpic GamesHarryPotter.comVICESi quieres, en el siguiente paso puedo generar la imagen de portada realista ajustada exactamente a este guion (tono vibrante, sin texto, cuadrada).Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    ChatGPT desafía a Nano Banana

    Play Episode Listen Later Dec 18, 2025 7:20 Transcription Available


    AI lanza ChatGPT Images para competir con Nano Banana de GooglePor Félix Riaño @LocutorCoOpenAI acaba de mover una ficha clave en la carrera de la inteligencia artificial visual. Esta semana empezó el despliegue de ChatGPT Images, una nueva experiencia dentro de ChatGPT pensada para crear y editar imágenes de forma más rápida, precisa y estable. El motor detrás de este cambio se llama GPT Image 1.5, y llega con un objetivo claro: plantar cara a Nano Banana, el editor de imágenes de Google que se volvió viral en las últimas semanas.La promesa de OpenAI es directa y fácil de entender incluso para niños: imágenes que tardan menos en generarse, cambios más exactos cuando pides una edición y menos errores raros en detalles como texto, caras o iluminación. Además, ChatGPT ahora tiene una pestaña dedicada solo a imágenes, algo que cambia la forma en la que la gente crea y experimenta. ¿Estamos viendo el inicio de una nueva guerra creativa entre Google y OpenAI?Ser más rápido no siempre significa verse mejorChatGPT Images ya está disponible dentro de ChatGPT y también para desarrolladores a través de la API con el nombre GPT Image 1.5. Según OpenAI, este modelo genera imágenes hasta cuatro veces más rápido que la versión anterior y sigue mejor las instrucciones del usuario. Dicho de forma simple: si pides cambiar algo puntual en una foto, el sistema va a tocar solo eso y va a respetar lo demás.El nuevo espacio de imágenes funciona como un pequeño estudio creativo. Permite crear desde cero, editar fotos existentes y explorar ideas con filtros y ejemplos en tendencia. Ya no todo depende de escribir el prompt perfecto. Ahora también puedes inspirarte viendo qué están creando otras personas.En pruebas independientes, GPT Image 1.5 llegó al primer lugar en rankings de generación de imágenes, superando por poco a Nano Banana Pro de Google. En números, eso suena fuerte. En la práctica, la diferencia visual aún genera debate.Aquí aparece la parte incómoda. Aunque GPT Image 1.5 lidera algunos rankings técnicos, las comparaciones reales muestran resultados muy parecidos entre ChatGPT Images y Nano Banana. En ediciones simples, como cambiar una foto nocturna a diurna, varios periodistas notaron que la versión de Google se ve más natural.Nano Banana sorprendió porque imitó errores típicos de la fotografía con móviles, como ruido, desenfoques suaves o luces imperfectas. Eso hizo que muchas imágenes parecieran fotos reales. ChatGPT Images mejora mucho frente a versiones anteriores, pero todavía hay casos donde el resultado se siente demasiado limpio o artificial.Además, los usuarios gratuitos tendrán acceso limitado, algo que ya pasa en otras herramientas de IA. Esto deja la pregunta abierta: ¿basta con ser más rápido y más preciso en teoría, o la percepción visual seguirá mandando en esta competencia?OpenAI no está apostando todo a una sola función. ChatGPT Images forma parte de una estrategia más grande: convertir a ChatGPT en una aplicación para casi todo. Texto, voz, imágenes, video y ahora una experiencia visual dedicada.GPT Image 1.5 destaca cuando se trata de ediciones encadenadas. Puedes pedir varios cambios seguidos sin que la imagen se descontrole. También mejora bastante el manejo de texto dentro de imágenes, algo clave para carteles, camisetas o diseños simples.Para creadores, estudiantes y pequeños negocios, esto significa menos pasos y menos herramientas externas. Para Google, significa que Nano Banana ya no corre solo. La pelea ahora es directa, constante y muy visible. Y como suele pasar en tecnología, quien gana al final es quien usa estas herramientas todos los días.El lanzamiento de ChatGPT Images llega en un momento de máxima presión para OpenAI. En las últimas semanas, Google presentó Gemini 3 y reforzó su ecosistema creativo integrando Nano Banana en servicios como Google Fotos, Mensajes y el buscador.OpenAI respondió rápido. Primero lanzó GPT-5.2 y luego este nuevo modelo de imágenes. Según la empresa, GPT Image 1.5 mejora la consistencia entre ediciones, mantiene mejor los rasgos de personas y respeta la composición original de las fotos.Para desarrolladores, el modelo ya está disponible vía API, con precios publicados en el sitio oficial de OpenAI. Eso permite integrar esta tecnología en apps propias, juegos o herramientas de diseño.En paralelo, OpenAI también avanza en integraciones con otras plataformas, desde servicios creativos hasta música y productividad. Todo apunta a que ChatGPT quiere ser el lugar donde empiezan y terminan muchas tareas digitales.OpenAI lanzó ChatGPT Images con GPT Image 1.5 para competir de frente con Nano Banana de Google. Es más rápido, más estable y más fácil de usar. La calidad visual aún se discute, pero la carrera está más apretada que nunca. Cuéntanos qué editor te gusta más y sigue Flash Diario en Spotify.ChatGPT lanza un nuevo generador de imágenes más rápido para competir con Nano Banana y cambiar cómo editamos fotos con IA.

    LG se suma a la guerra RGB

    Play Episode Listen Later Dec 17, 2025 6:56 Transcription Available


    LG Micro RGB evo debuta en CES 2026 con nueva tecnología de color y control de luzPor Félix Riaño @LocutorCoLG presenta su primer televisor Micro RGB evo para 2026, con color total certificado y control avanzado de luz.LG acaba de confirmar que va a entrar de lleno en la nueva generación de televisores RGB. En CES 2026, la marca va a presentar el LG Micro RGB evo, su televisor LCD más avanzado hasta ahora. Llega en tamaños de setenta y cinco, ochenta y seis y cien pulgadas, con una promesa clara: colores más precisos, más puros y mejor control de la luz. Este anuncio pone a LG en la misma carrera en la que ya están Samsung, Hisense, TCL y Sony. Pero aquí hay una diferencia clave: LG dice que va a llevar la precisión aprendida en trece años de OLED a un televisor LCD. ¿Hasta dónde puede llegar esta mezcla de tecnologías?La clave está en cómo se ilumina la imagen, no en el tipo de panelEl LG Micro RGB evo usa una retroiluminación formada por pequeños grupos de luces rojas, verdes y azules. Esos grupos iluminan varios píxeles a la vez y permiten un control del color mucho más fino que el de los televisores LCD tradicionales. LG explica que este sistema alcanza el cien por ciento de los espacios de color BT punto veinte veinte, DCI-P3 y Adobe RGB, algo certificado por Intertek.Para gestionar esa precisión, el televisor incorpora el procesador Alpha once generación tres, un chip que se encarga del control de la luz, el tratamiento del color y el escalado de imagen con ayuda de inteligencia artificial.El desafío de esta tecnología está en el equilibrio. Aunque el televisor cuenta con más de mil zonas de atenuación, hay modelos Mini LED que ofrecen muchas más. Eso puede marcar diferencias en escenas con contrastes extremos. Además, este tipo de panel sigue necesitando filtros de color, algo que no ocurre en OLED ni en el microLED real.El objetivo de LG es cerrar la brecha entre brillo, precisión de color y tamaño de pantalla, sin llegar a los costos extremos del microLED, que hoy sigue reservado para presupuestos muy altos.LG confía en que el control avanzado de la luz y el procesamiento heredado de su experiencia en OLED compensen esas limitaciones. El Micro RGB evo se apoya en sistemas de atenuación más precisos y en algoritmos que ajustan brillo y color en tiempo real.El televisor también integra la versión más reciente de webOS, con perfiles personalizados, ajustes automáticos de imagen y sonido, y herramientas de asistencia con inteligencia artificial. LG va a mostrar el modelo en CES 2026, en Las Vegas, entre el seis y el nueve de enero, donde se conocerán datos finales como brillo máximo, consumo y precio.El movimiento de LG confirma una tendencia clara para 2026. Varias marcas ya han presentado o anunciado televisores RGB. Hisense mostró uno de ciento dieciséis pulgadas. Samsung lanzó un modelo de ciento quince pulgadas con un precio cercano a los treinta mil dólares. TCL ya comercializa opciones en China y Sony prepara su tecnología True RGB.RGB y microLED no son lo mismo. En RGB, los LEDs iluminan grupos de píxeles; en microLED, cada píxel emite su propia luz. Esa diferencia técnica explica por qué el microLED sigue siendo tan costoso.Para creadores de contenido, la cobertura total de BT punto veinte veinte resulta especialmente atractiva. Para el público general, el mayor impacto se va a notar en escenas HDR con colores intensos y altos niveles de brillo.LG entra en la carrera del RGB con un televisor que busca combinar brillo, color y control avanzado de luz. El Micro RGB evo se va a mostrar en CES 2026 y ahí vamos a saber si cumple todo lo que promete. Cuéntame qué opinas y sigue Flash Diario en Spotify.LG presenta su primer televisor Micro RGB evo para 2026 con color certificado y control avanzado de la retroiluminación.

    Así planea Apple que uses gafas inteligentes todo el día

    Play Episode Listen Later Dec 16, 2025 8:29 Transcription Available


    Apple apuesta por eficiencia: va a usar tecnología del Apple Watch para mejorar batería y peso en sus futuras gafas inteligentes  Por Félix Riaño @LocutorCo  Apple lleva años buscando la fórmula correcta para unas gafas inteligentes que puedas usar todo el día. El gran obstáculo ha sido siempre el mismo: la batería. Las Apple Vision Pro muestran músculo tecnológico, pero su autonomía se queda corta y su peso limita el uso prolongado. Ahora, varios reportes coinciden en una idea clara y muy lógica: Apple va a recurrir a la tecnología que ya domina en el Apple Watch para resolver ese problema. Chips pensados para consumir poca energía, mantener buen rendimiento y reducir peso. La pregunta es directa y vale la pena hacerla desde ya: ¿estamos más cerca de unas gafas inteligentes realmente usables en la vida diaria?  La solución existe desde hace años y ya vive en tu muñeca  Las gafas inteligentes juegan con reglas distintas a las de un visor de realidad mixta. No están pensadas para sesiones cortas en interiores, sino para acompañarte durante horas mientras caminas, hablas, escuchas y te mueves por la ciudad. Eso cambia por completo las prioridades de diseño. Aquí, la potencia bruta pasa a segundo plano y la eficiencia energética se vuelve central.Según los reportes más recientes, Apple va a evitar los procesadores del iPhone y va a apostar por los chips tipo S que usa el Apple Watch. Estos procesadores están diseñados para funcionar con baterías pequeñas, generar poco calor y mantener un consumo estable durante muchas horas. Para unas gafas ligeras, esa combinación resulta mucho más adecuada que un chip pensado para un teléfono.  El problema no es solo cuánto dura la batería, sino dónde se coloca el peso. En un dispositivo que se lleva en la cabeza, cada gramo cuenta. Una batería grande mejora la autonomía, pero hace las gafas incómodas y poco prácticas. Por eso, la mayoría de modelos actuales en el mercado apenas alcanzan unas pocas horas de uso continuo.A esto se suma otro reto: la experiencia de uso. Muchas gafas inteligentes dependen de botones poco intuitivos, gestos difíciles de recordar o combinaciones de activación que generan confusión. En situaciones cotidianas, como caminar o conducir, eso puede convertirse en un riesgo.Apple quiere evitar ese escenario desde el inicio. Por eso, el primer modelo de sus gafas no va a incluir pantalla integrada y va a depender de la conexión con el iPhone para tareas más exigentes, manteniendo el hardware de las gafas lo más simple y ligero posible.  Los rumores apuntan a que Apple va a presentar sus primeras gafas inteligentes en 2026, con una llegada comercial más amplia en 2027. Este primer modelo funcionará como un accesorio del iPhone, de forma similar al Apple Watch. Las gafas se encargarán de captar información del entorno mediante cámaras, micrófonos y sensores, mientras que el iPhone procesará las tareas más complejas.El chip elegido sería un System in Package del Apple Watch, como el S10. Este procesador ofrece la potencia necesaria para manejar comandos de voz, reconocimiento visual básico y reproducción de audio, manteniendo un consumo energético muy bajo. Para entender la magnitud de esto, basta mirar al Apple Watch Ultra, que puede superar el día completo de uso con este tipo de arquitectura.Apple parece estar apostando por resolver primero la comodidad y la autonomía. Las funciones más avanzadas, como pantallas integradas o realidad aumentada completa, quedarían reservadas para generaciones posteriores.  Este movimiento de Apple llega en un momento clave para el sector. Meta ya ha logrado vender millones de gafas inteligentes gracias a su alianza con Ray-Ban, apostando por un diseño discreto y funciones básicas bien integradas. Google, por su parte, prepara su regreso con Android XR junto a Samsung y marcas de moda, mientras otras empresas exploran distintos enfoques, desde gafas con pantallas flotantes hasta modelos centrados en audio y traducción en tiempo real.Los analistas coinciden en que las gafas inteligentes podrían convertirse en una pieza más del ecosistema personal, junto al teléfono, los audífonos y el reloj. Casos de uso como asistencia a personas con discapacidad visual, navegación sin mirar el móvil, traducción automática o lectura discreta de mensajes ya muestran un valor claro.La gran incógnita sigue siendo el equilibrio entre utilidad, precio y aceptación social. Apple confía en que una entrada gradual, priorizando comodidad y batería, le permita evitar errores del pasado y llegar con una propuesta madura.  Apple va a usar la experiencia del Apple Watch para resolver el mayor problema de las gafas inteligentes: la batería. Menos peso, más horas de uso y una integración clara con el iPhone. Ahora dime tú: ¿usarías unas gafas inteligentes sin pantalla? Escucha más historias como esta en Flash Diario en Spotify.Apple va a usar chips del Apple Watch para lograr gafas inteligentes ligeras, con más batería y pensadas para uso diario.

    Google Maps ya sabe dónde aparcaste

    Play Episode Listen Later Dec 15, 2025 7:39 Transcription Available


    Google Maps ahora guarda automáticamente dónde aparcas en iPhone y elimina el pin cuando vuelves a conducirPor Félix Riaño @LocutorCo¿Te ha pasado que sales de un centro comercial, miras alrededor y no recuerdas dónde dejaste el coche? Google Maps acaba de activar una función que busca resolver justo ese momento de confusión. En iPhone, la app ahora detecta automáticamente cuándo terminas un trayecto en coche y guarda el lugar exacto donde aparcaste, sin que tengas que tocar nada. La función funciona de forma silenciosa, se borra sola cuando vuelves a conducir y está pensada para integrarse con CarPlay, Bluetooth o USB. Es un cambio pequeño en apariencia, pero muy práctico en el día a día. ¿Por qué ha tardado tanto en llegar y por qué solo está disponible en iOS?Funciona sola… pero deja fuera a millones de usuarios Android.Vamos a explicar qué está pasando. Google Maps en iOS empezó a activar hace unas semanas una función que reconoce cuándo llegas en coche a un lugar y cuándo apagas el motor. En ese momento, la app guarda automáticamente la ubicación del vehículo y coloca un pin en el mapa. Ese pin permanece visible durante cuarenta y ocho horas. Si antes de ese tiempo vuelves a conducir, el pin desaparece sin que hagas nada. Todo ocurre de forma automática.Para que funcione, el iPhone debe estar conectado al coche por CarPlay, Bluetooth o cable USB. No hace falta usar el botón manual de “guardar aparcamiento” que Google Maps ya tenía desde hace años. Ahora el sistema actúa por contexto, entendiendo el inicio y el final del trayecto. Es una función pensada para la vida real, para despistes cotidianos y para lugares grandes como parkings, hospitales o aeropuertos.Aquí aparece la tensión. Esta función solo está activa en Google Maps para iOS. En Android, el sistema sigue siendo manual. El usuario debe guardar el lugar y borrar el pin por su cuenta. Esto ha generado muchas preguntas, sobre todo porque Android es la plataforma principal de Google.Además, aunque el sistema guarda la ubicación horizontal del coche, no indica el piso o nivel en un parking de varias plantas. Eso significa que en parkings grandes todavía toca fijarse en columnas, colores o señales. Algunos usuarios también se preguntan qué datos usa Google para detectar el aparcamiento y si esto afecta a la privacidad. Google explica que el pin se elimina automáticamente y que la ubicación no queda guardada de forma permanente. Aun así, la diferencia entre iOS y Android deja una sensación rara de funciones desiguales dentro del mismo ecosistema.Google ha ido afinando esta función poco a poco. Primero activó el guardado automático del aparcamiento. Luego añadió un detalle visual: si usas un icono personalizado de coche en Google Maps, ese mismo icono aparece marcando el lugar donde aparcaste, en vez del clásico símbolo con la letra P.Los iconos personalizados existen desde dos mil veinte, y este año Google añadió nuevos modelos y colores. Ahora ese detalle se convierte en parte del sistema de aparcamiento. No cambia la navegación, pero hace la experiencia más clara y más humana.En comparación, Apple Maps lleva años ofreciendo detección automática del aparcamiento en iPhone. Google llega más tarde, pero lo hace integrado con su propia app y con una lógica simple: entras al coche, conduces, aparcas, te bajas, y el mapa se encarga del resto. No hay menús, no hay recordatorios, no hay pasos extra.Este tipo de funciones forma parte de una tendencia más amplia: apps que entienden el contexto sin que el usuario tenga que pedirlo. Google Maps ya hace algo parecido al detectar si vas caminando, en bici o en transporte público. El aparcamiento automático encaja en esa misma idea.También hay una comparación interesante con AirTag y otros sistemas de rastreo. Aquí no hay accesorios extra ni hardware adicional. Todo depende del teléfono, del coche y del comportamiento de uso.Por ahora, Google no ha dicho cuándo llegará esta función automática a Android. En Android Auto existe un botón para guardar el aparcamiento, pero sigue siendo manual. Eso deja abierta una pregunta clara: ¿es una limitación técnica o una decisión de producto? Mientras tanto, en iPhone la función ya está activa por defecto en muchos dispositivos, sin anuncios grandes ni actualizaciones visibles. Simplemente aparece un día… y funciona.Google Maps ahora recuerda automáticamente dónde aparcas si usas iPhone y conectas el coche. El pin se borra solo al volver a conducir. Es práctico, discreto y muy fácil de usar. La gran duda es cuándo llegará a Android. Cuéntame si ya lo viste activo en tu móvil y sigue Flash Diario en Spotify para más historias así.Google Maps en iPhone ahora guarda solo dónde aparcas, borra el pin al conducir y deja a Android esperando.

    La sonda que explicaba el pasado de Marte ya no responde

    Play Episode Listen Later Dec 12, 2025 8:17 Transcription Available


    NASA perdió contacto con MAVEN, sonda clave para estudiar Marte y comunicar rovers. Buscan recuperarla para evitar impacto en futuras misionesPor Félix Riaño @LocutorCo  NASA confirmó que la sonda MAVEN dejó de comunicarse con la Tierra durante un paso orbital detrás de Marte. La señal nunca volvió, pese a que todo funcionaba bien antes del ocultamiento. MAVEN llevaba más de una década estudiando la atmósfera marciana y trabajando como enlace de comunicaciones para los rovers Curiosity y Perseverance. Ahora los equipos en la Tierra buscan recuperar el contacto y entender lo que pasó, porque la misión es vital para la ciencia y para las operaciones activas en el planeta rojo. ¿Qué implica este silencio inesperado para el presente y el futuro de Marte?  MAVEN es una sonda que llevaba once años en órbita marciana. Llegó en 2014 y desde entonces ayudó a entender cómo Marte perdió su atmósfera, cómo interactúa con el viento solar y cómo esos procesos transformaron al planeta en un mundo frío y seco. También era parte del sistema que transporta datos desde la superficie marciana hasta la Tierra, un rol que permitía que fotos, mediciones y avances científicos llegaran a nuestros laboratorios. El 6 de diciembre, MAVEN cruzó detrás de Marte en una maniobra rutinaria. Antes de perderse de vista, sus datos mostraban un funcionamiento estable, sin señales de anomalías. Pero al salir del lado opuesto, el silencio fue total. NASA no recibió ni un pulso de telemetría. Ese hecho genera inquietud, porque afecta observaciones científicas y comunicaciones. Además, recuerda la fragilidad de una flota envejecida que mantiene activa la exploración marciana.  El silencio de MAVEN llega en un momento en el que la red de orbitadores de NASA ya está bajo presión. Mars Odyssey lleva más de veinte años y se espera que agote su combustible pronto. El Mars Reconnaissance Orbiter también supera la década y media de operación, con instrumentos que han dado señales de desgaste. La Agencia Espacial Europea aporta dos naves, Mars Express y el Trace Gas Orbiter, pero también están cumpliendo ciclos de vida extendidos. Cada una cubre turnos de comunicación para los rovers, y si una falla, la carga aumenta en las demás. MAVEN aportaba una ventaja especial: su órbita alta permitía relays más largos, lo que resolvía grandes cantidades de datos en menos tiempo. Perder ese enlace significa una reducción inmediata en la capacidad de transmitir ciencia desde la superficie marciana. También complica la logística de futuras misiones como el programa para traer a la Tierra las muestras recogidas por Perseverance. Y para completar el panorama, NASA aún no ha logrado definir ni lanzar un nuevo orbitador de comunicaciones, pese a que lleva dos décadas intentándolo.  Los equipos en la Tierra estudian telemetrías previas al apagón y la última posición calculada para modelar hipótesis. Buscan señales débiles en el Deep Space Network, una red de antenas gigantes ubicadas en España, Estados Unidos y Australia. Esta red rastrea sondas a miles de millones de kilómetros y es la única capaz de recuperar un rastro diminuto que permita reconstruir la orientación o estado energético de MAVEN. La prioridad es determinar si la nave entró en un modo de seguridad, si perdió actitud, si hubo un fallo en la antena o si ocurrió un problema más profundo en sus sistemas. Recordemos que en 2022 MAVEN pasó tres meses en modo seguro por fallas en sus giróscopos y fue necesario reescribir su software de orientación. Ese antecedente mantiene viva la esperanza de que el equipo logre reactivarla. NASA también estudia acelerar el desarrollo del futuro orbitador de telecomunicaciones, un proyecto que por fin recibió financiación de 700 millones de dólares. Blue Origin y Rocket Lab ya han presentado ideas para cumplir ese rol. Mientras tanto, las demás naves seguirán absorbiendo más carga de comunicaciones para que Curiosity y Perseverance no queden aislados.  MAVEN aportó descubrimientos esenciales. En 2023 entregó imágenes de Marte en luz ultravioleta, mostrando detalles de su atmósfera como si fueran señales químicas en movimiento. También reveló el mecanismo de “sputtering”, un proceso físico mediante el cual partículas energéticas arrancan átomos de la atmósfera, contribuyendo a la desaparición del aire del planeta. Identificó además una aurora de protones, un fenómeno que no aparece en la Tierra y que se produce cuando el viento solar interactúa con el hidrógeno atmosférico. Sus mediciones permitieron reconstruir el pasado de un Marte que pudo tener mares extensos. MAVEN es parte de las piezas que llevaron a los científicos a concluir que el Sol fue el responsable de la perdida atmosférica que transformó un planeta húmedo en uno seco. También fue un actor clave para elegir rutas seguras y zonas de aterrizaje para futuras misiones robóticas y tripuladas. Su rol de puente entre superficie y Tierra se volvió más importante con Perseverance, que está almacenando tubos con rocas que algún día viajarán a la Tierra. El silencio de MAVEN no significa el fin inmediato de esta cadena, pero sí obliga a reorganizar todo el sistema.  MAVEN dejó de comunicarse después de una década aportando ciencia y comunicaciones vitales desde Marte. NASA trabaja para recuperar su señal y mantener operativa la red que sostiene a Curiosity, Perseverance y futuras misiones. Te invito a seguir pensando en cómo cuidamos estas naves que mantienen viva nuestra ventana al planeta rojo. Sigue el pódcast Flash Diario.  BibliografíaScienceAlertScientific AmericanNASA ScienceABC NewsPBS NewsHourArs TechnicaThe Guardian  Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Adobe mete Photoshop dentro de ChatGPT

    Play Episode Listen Later Dec 11, 2025 6:41 Transcription Available


    Adobe integra Photoshop, Express y Acrobat en ChatGPT para editar fotos, diseños y PDF dentro del chat    Por Félix Riaño @LocutorCo  Adobe abrió la puerta para que cualquier persona pueda editar fotos, diseñar piezas gráficas y ajustar documentos PDF dentro de ChatGPT. Esta integración funciona con herramientas reales de Photoshop, Adobe Express y Acrobat, usadas durante décadas en la industria creativa. Desde hoy, los usuarios van a poder pedirle al chat que borre fondos, mejore la iluminación de una imagen, arme invitaciones con plantillas profesionales o combine varios archivos PDF sin cambiar de aplicación. Con este movimiento, Adobe se acerca a las personas que aún no usan sus programas y convierte a ChatGPT en un espacio de trabajo creativo accesible. ¿Qué implica esto para el futuro de la edición digital?  Adobe anunció que Photoshop, Express y Acrobat ya funcionan dentro de ChatGPT a nivel global. Las tres herramientas aparecen como aplicaciones integradas, listas para ejecutar acciones con instrucciones habladas o escritas. Photoshop permite ajustar brillo, contraste, exposición y efectos creativos; además edita zonas específicas de una foto sin perder calidad. Express facilita la creación de piezas como invitaciones, afiches y publicaciones para redes sociales, usando plantillas listas para personalizar. Acrobat ayuda a reorganizar páginas, extraer tablas, editar texto, convertir formatos y hasta unir varios PDF. Todo esto sucede en el mismo chat, donde los controles se muestran como barras deslizantes fáciles de manejar.  La llegada de estas herramientas crea un escenario nuevo. ChatGPT ofrece sus propios sistemas para generar imágenes, pero muchos usuarios pedían ajustes más precisos. Adobe, por su parte, buscaba acercarse a un público más amplio que siente que sus programas son complejos. Ahora surge un reto: varias aplicaciones de edición también existen dentro del chat. Canva ya estaba presente. Gemini de Google también ofrece edición. Esto crea competencia directa dentro de la misma ventana de conversación. Para los usuarios, la opción más cómoda será la que responda mejor a su necesidad del momento. Para Adobe, la apuesta es fortalecer su ecosistema y ganar confianza con personas que nunca abrieron Photoshop o Acrobat.  Adobe diseñó esta integración usando el Modelo de Contexto (MCP), el mismo sistema que permite conectar apps externas con ChatGPT. La novedad más llamativa está en Photoshop, que adapta los controles según la instrucción del usuario. Si se pide aclarar una foto, aparecen controles de exposición. Si se busca un efecto, aparecen opciones como tritono o glitch. En Express, todo el proyecto se puede editar sin salir del chat. Y en Acrobat, la edición respeta el formato original del documento, algo muy difícil de lograr con editores genéricos. Adobe ofrece estas funciones gratis dentro de ChatGPT, pero mantiene sus aplicaciones completas para quienes necesitan trabajos avanzados.  Adobe trabaja desde hace dos años en sistemas de IA conversacional dentro de sus programas. Llamó a esta línea de trabajo “agentes creativos”. Express ya tenía un asistente que proponía diseños y animaciones. Photoshop estaba probando una versión beta de un asistente que interpreta instrucciones habladas. Y Firefly, su modelo de generación de imágenes, prepara una herramienta que conectará varias apps entre sí. Con estas integraciones, Adobe entra en un espacio que OpenAI quiere convertir en el “sistema operativo” de las aplicaciones del día a día. Las empresas empiezan a competir por el mismo lugar dentro del chat, lo que va a cambiar la forma en que usamos programas tradicionales.  Adobe trae Photoshop, Express y Acrobat directamente a ChatGPT y convierte el chat en un espacio creativo completo. Desde ajustar fotos hasta armar diseños y editar PDF, todo se hace con instrucciones simples. Si te interesa cómo la IA cambia las herramientas de trabajo, te invito a seguir Flash Diario  Photoshop, Express y Acrobat llegan a ChatGPT. Ahora puedes editar fotos, diseños y PDF gratis usando instrucciones dentro del chat.   BibliografíaTechCrunchThe Wall Street JournalEngadgetThe VergeCNETAdobe Newsroom Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Regreso Soyuz MS-27

    Play Episode Listen Later Dec 10, 2025 6:26 Transcription Available


    Tres tripulantes regresan desde la Estación Espacial Internacional tras ocho meses de ciencia en órbita terrestreLa Soyuz MS-27 aterrizó en Kazajistán con Jonny Kim, Sergey Ryzhikov y Alexey Zubritsky tras una misión de 245 días, más de 3.900 órbitas y cientos de experimentos científicos.  Por Félix Riaño @LocutorCo  Tres viajeros espaciales regresaron a la Tierra después de ocho meses en la Estación Espacial Internacional. La Soyuz MS-27 aterrizó en la estepa de Kazajistán bajo nieve ligera, con el equipo de rescate listo para apoyar a los astronautas y cosmonautas. Jonny Kim, Sergey Ryzhikov y Alexey Zubritsky completaron una misión intensa que incluyó experimentos científicos, caminatas espaciales, mantenimiento y coordinación con nuevas tripulaciones. La escena del aterrizaje mostró la dureza del clima y la precisión de la operación. ¿Qué aprendió este equipo durante sus 245 días en órbita y cómo cambia esto lo que sabemos sobre vivir y trabajar en el espacio?  Un regreso largo recuerda que cada misión termina con nuevos desafíos   La Soyuz MS-27 inició la maniobra de regreso después de separarse con cuidado del módulo Prichal. Jonny Kim, Sergey Ryzhikov y Alexey Zubritsky revisaron sistemas, aseguraron equipos y se prepararon para las horas más intensas del viaje. La nave debía seguir una ruta precisa hacia la atmósfera para lograr un aterrizaje estable en la estepa de Kazajistán. Durante la bajada aparecieron temperaturas muy altas, controladas por el escudo térmico. En tierra, los equipos de rescate avanzaron por la nieve para llegar rápido a la cápsula. Este proceso es parte central de cada misión y depende de la coordinación entre las personas en órbita y en superficie.  Volver de la órbita baja es un reto físico y técnico. La cápsula debe frenar en el punto exacto para evitar desvíos peligrosos. Al entrar en la atmósfera, la tripulación enfrenta fuerzas que afectan músculos y equilibrio después de tantos meses sin gravedad. Por eso, al aterrizar, los equipos abren la escotilla con rapidez y sientan a cada persona para una revisión inicial. Zubritsky necesitó asistencia médica inmediata. Kim y Ryzhikov pasaron por controles breves antes de continuar el protocolo. Estos pasos permiten evaluar su estado y entender cómo reacciona el cuerpo en un regreso tan largo.  En la nieve ocurrió un gesto que une tradición y trabajo en equipo: Ryzhikov firmó la cápsula quemada como parte de una costumbre espacial.   El aterrizaje ocurrió a las 12:03 a.m. EST, con la cápsula inclinada sobre la nieve. Kim recibió una muñeca matrioshka con su rostro, un detalle que refleja camaradería entre agencias. Después de los chequeos iniciales, los tres viajaron a Karaganda para continuar la recuperación. Kim seguiría hacia Houston y los cosmonautas hacia la Ciudad de las Estrellas. Durante la misión, Kim avanzó en estudios médicos y tecnológicos, mientras Ryzhikov y Zubritsky completaron tareas externas y mantenimiento del segmento ruso. El equilibrio entre sus funciones mantuvo activa la estación y permitió completar experimentos clave. Sus datos ayudan ahora a preparar próximas misiones hacia la Luna y Marte.  La Soyuz MS-27 forma parte de una línea de naves que Rusia usa desde hace décadas. Su diseño permite un descenso firme incluso con clima difícil. La tripulación completó 3.920 órbitas y viajó casi 167 millones de kilómetros. La misión coincidió con el aniversario de Gemini 7, un recordatorio del avance en vuelos largos. Los experimentos incluyeron tejidos bioprintados, control remoto de robots y materiales especiales para medicina. Estos estudios apoyan programas como Artemis y la llegada de nuevas estaciones comerciales. La Expedición 74 ya continúa el trabajo con astronautas de varias agencias.  La Soyuz MS-27 cerró una misión de ocho meses con un regreso preciso y lleno de ciencia. Kim, Ryzhikov y Zubritsky aportaron estudios médicos, pruebas tecnológicas y tareas externas esenciales. Ahora empieza su recuperación en tierra. Si quieres seguir estas historias del espacio, escucha Flash Diario  La Soyuz MS-27 volvió con Kim, Ryzhikov y Zubritsky tras 245 días de ciencia en la estación y un regreso nevado.  BibliografíaYahoo NewsC-SPANSignalsAZThe Times of Central AsiaSpaceflight NowBBCSpace.comNASA Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Google quiere que dejemos el teléfono- llegan las gafas XR

    Play Episode Listen Later Dec 9, 2025 8:55 Transcription Available


    Las primeras gafas con Android XR y Gemini llegan en 2026 para reducir el uso del teléfono. Incluyen Project Aura, modelos monoculares, binoculares y versiones ligeras hechas con Warby Parker y Gentle Monster  Por Félix Riaño @LocutorCo  Google presentó sus nuevas gafas con Gemini, Xreal, Samsung y Warby Parker. Estas gafas pueden mostrar mapas, traducir, grabar videos, guiar recetas y recibir videollamadas sin mirar el teléfono. Funcionan con Android XR y están pensadas para usarse a diario.  Google propone un cambio profundo en nuestra vida diaria con una familia completa de gafas inteligentes que funcionan sin necesidad de sacar el teléfono del bolsillo. En 2026 llegarán modelos con pantalla, versiones de audio, gafas monoculares, binoculares y una opción avanzada llamada Project Aura. Todas permiten ver mapas flotantes, recibir indicaciones paso a paso, atender llamadas, usar Gemini para identificar objetos y cocinar con recetas guiadas sin mirar el celular. Son parte del nuevo ecosistema Android XR, que incluye también mejoras importantes para el Samsung Galaxy XR. Estas gafas buscan que dejemos de mirar el teléfono cada pocos segundos. ¿Nos vamos a acostumbrar a recibir la información justo delante de los ojos?  Pero muchos se preguntan cómo vamos a confiar en estas gafas.  Google anunció que en 2026 tendremos varias familias de gafas inteligentes que van a trabajar junto con el teléfono, pero sin obligarnos a mirarlo. Las gafas usan Gemini, cámaras integradas, micrófonos y un sistema operativo llamado Android XR. Este sistema permite que las notificaciones del móvil aparezcan como pequeñas ventanas delante de nuestros ojos. Las gafas pueden mostrar direcciones en la calle, traducir textos en vivo, describir objetos, grabar fotos y enviar videollamadas. La idea es reducir la necesidad de sacar el móvil cada vez que necesitamos una instrucción o un dato. Las primeras demostraciones muestran recetas flotando en la cocina, indicaciones de mapas al caminar y respuestas rápidas de Gemini basadas en lo que vemos.  Google quiere que estas gafas cambien la forma en que vivimos, pero hay varios desafíos grandes que deben resolver. Uno de ellos es la privacidad, porque las cámaras integradas pueden generar preocupación entre las personas que nos rodean. Google agregó luces que muestran cuándo la cámara está activa y un interruptor físico que corta la energía del sistema para que todos sepan que no está grabando. Otro desafío es la duración de la batería. Algunos modelos, como Project Aura, usan un pequeño procesador en el bolsillo que se calienta y necesita energía continua. Otro punto es la aceptación social. Muchas personas todavía sienten incomodidad al ver a alguien usando gafas con cámaras. También hay dudas sobre la dependencia del teléfono y sobre qué tan rápido vamos a entender los gestos que controlan las aplicaciones.  Google está trabajando para que el uso diario de las gafas sea cómodo y natural. Las versiones de audio permiten hablar con Gemini sin ver una pantalla. Las versiones monoculares muestran un pequeño recuadro con información básica como música, notificaciones y direcciones. Las versiones binoculares añaden profundidad para ver detalles en 3D. Y Project Aura, desarrollado con Xreal, agrega una pantalla más grande para juegos, varias ventanas de trabajo y una experiencia parecida a un cine personal. Todas estas opciones quieren que dejemos de mirar el teléfono cada pocos pasos y usemos la vista y la voz para interactuar con la tecnología. Google también formó alianzas con Warby Parker y Gentle Monster para que las gafas sean cómodas, livianas y compatibles con recetas ópticas. El objetivo es que cualquier persona pueda usarlas sin sentir que lleva un aparato extraño. Google anunció todo esto durante The Android Show: XR Edition, donde también confirmó nuevas funciones para el Samsung Galaxy XR, como PC Connect para traer la pantalla del PC al visor, un modo de viaje para usar el casco en aviones y Likeness, un avatar fotográfico que refleja nuestros gestos en videollamadas. En las demostraciones, las gafas mostraron funciones muy parecidas a lo que ya hacen los móviles, pero de forma más cómoda: un mapa aparece al bajar la mirada, Gemini responde preguntas sobre los objetos que vemos y las videollamadas flotan delante de nosotros. CNN mostró cómo las gafas pueden convertir una foto de una sala en una escena de nieve usando un modelo llamado Nano Banana. The Verge explicó que Project Aura no es un accesorio, sino un pequeño headset disfrazado de gafas. Android Authority reveló que Google prepara tres modelos distintos, con y sin pantalla. CNET y PCMag destacaron que las gafas monoculares funcionan con notificaciones del teléfono sin necesidad de nuevas apps. Y Reuters confirmó el trabajo conjunto con Warby Parker para modelos livianos con salida en 2026.  Google presentó gafas que trabajan con Android XR para reducir el uso del teléfono. Hay modelos de pantalla, de audio, monoculares, binoculares y la versión avanzada Project Aura. Todas usan Gemini para dar información en la mirada. Si te interesa seguir esta evolución, te invito a escuchar más episodios y seguir Flash Diario en Spotify.Google lanza gafas XR con Gemini que reducen el uso del teléfono. Mapas, recetas, videollamadas y traducción directa en la mirada.

    Lo que nadie te contó del acuerdo Netflix-Warner- empleos, precios y miedo en Hollywood

    Play Episode Listen Later Dec 8, 2025 10:57 Transcription Available


    Netflix se hace giganteNetflix compra Warner Bros., levanta megacentro en Nueva Jersey y cambia cómo ves series desde casaPor Félix Riaño @LocutorCoNetflix acaba de tener un día que va a quedar marcado en la historia del entretenimiento. Anunció un acuerdo para comprar Warner Bros. Discovery por un valor total de unos 82 700 millones de dólares, es decir, ochenta y dos mil setecientos millones, incluyendo HBO, HBO Max y franquicias como Harry Potter, Batman y Juego de tronos. El mismo día cerró la compra oficial del antiguo fuerte militar Fort Monmouth, en Nueva Jersey, un terreno de unas 289 acres, que son cerca de 117 hectáreas, donde va a levantar un megacentro de producción con 12 estudios de grabación. Y, al tiempo, actualizó sus aplicaciones para quitar el botón de “cast” en la mayoría de televisores modernos. ¿Esto es una buena noticia para quienes amamos las series y las películas, o es una señal de alerta por poder, precios y empleo en Hollywood?Punto de giro narrativo (10 palabras)Detrás de la fiesta hay miedo, dudas y tarifas altas.Vamos a empezar por el estudio de Nueva Jersey, porque ahí se ve muy bien la nueva cara física de Netflix. En Fort Monmouth, una antigua base del Ejército de Estados Unidos cerca de la costa, Netflix ya tiene permiso para transformar unas 117 hectáreas en un campus de producción enorme. El plan incluye 12 estudios de sonido que, en conjunto, van a sumar casi 500 000 pies cuadrados, que son alrededor de 46 500 metros cuadrados de espacios cerrados para grabar. Además va a haber oficinas, talleres, cafetería, tiendas, zonas para parquear los tráileres de los equipos, un teatro, un hotel y áreas de visita para el público. Oceanport y Eatontown, los dos municipios vecinos, firmaron acuerdos de pago en lugar de impuestos para asegurar varios millones de dólares al año durante treinta años. Sobre el papel, parece una fábrica de historias y empleos. La pregunta es qué tipo de historias, bajo qué reglas y con qué efectos en el resto del ecosistema.Mientras se celebra el futuro estudio y el súper catálogo que va a nacer si se cierra la compra de Warner Bros., crece una preocupación clara: la concentración de poder. Netflix ya tiene alrededor de 300 millones de suscriptores en el mundo. HBO Max suma más de 120 millones. Varios analistas calculan que, juntos, podrían controlar más de la mitad del mercado de streaming por uso en móviles. La senadora Elizabeth Warren habló de “pesadilla antimonopolio” y advirtió sobre tarifas más altas y menos opciones para el público. El Sindicato de Guionistas, el Writers Guild of America, pidió bloquear la fusión y recordó que cada gran consolidación viene acompañada por despidos masivos. Desde el lado republicano también hay ruido: el senador Mike Lee, que lidera el comité antimonopolio en el Senado, pidió que los reguladores miren el caso con lupa. La administración Trump ve el acuerdo con “gran escepticismo” y Paramount, que también quería comprar Warner, dice que el proceso estuvo inclinado a favor de Netflix. Todo eso ocurre mientras Netflix quita, sin previo aviso, la opción de enviar contenido desde el móvil a la mayoría de televisores modernos, algo que mucha gente usaba a diario.¿Qué va a pasar ahora? Empieza una carrera larga de revisiones legales y políticas en Estados Unidos y en Europa. El Departamento de Justicia va a estudiar si la mezcla de Netflix con Warner Bros. y HBO reduce la competencia y puede llevar a aumentos de precios o a menos diversidad de contenidos. Netflix, por su lado, va a insistir en que no compite solo con otros servicios de streaming, sino también con la televisión abierta, el cable, YouTube, TikTok y las redes sociales. Es decir, va a decir que el “mercado real” son todos los minutos de pantalla que peleamos a diario. En medio de la polémica, los jefes de Netflix prometen que Warner Bros. va a seguir estrenando películas en cines, unas quince al año, y que HBO y HBO Max van a seguir como marca propia, al menos por ahora. Explican que la idea es usar el músculo tecnológico de Netflix para llevar las historias de Warner a más personas, no para apagarlas. El acuerdo incluye una cláusula muy reveladora: si los reguladores tumban la compra, Netflix va a pagar una multa de 5 800 millones de dólares a Warner Bros. Discovery. Y si Warner decide irse con otra oferta, como la de Paramount, tendrá que pagarle a Netflix 2 800 millones. Eso muestra que todo el mundo sabe que el examen regulatorio va a ser duro.Este movimiento llega en un momento en el que Hollywood está agotado. Desde 2020 se han juntado la pandemia, la caída de la taquilla de cine tradicional, dos grandes huelgas de guionistas y actores, y el miedo a la inteligencia artificial generativa. La compra de 21st Century Fox por Disney en 2019, por unos 71 300 millones de dólares, ya redujo el número de estudios grandes. El reciente acuerdo para que Skydance controle Paramount trajo miles de despidos. Muchas personas en Los Ángeles ven la posible entrada de Netflix sobre Warner como otra ola de cierres de salas, menos películas arriesgadas y más presión para que las historias obedezcan solo a los algoritmos. Al mismo tiempo, el megacentro de Netflix en Fort Monmouth se presenta como un motor económico para Nueva Jersey: inversión de hasta 1 000 millones de dólares, empleo local y una nueva “Hollywood de la costa este”. Y en el lado más cotidiano, la decisión de matar el “casting” desde el móvil a la mayoría de televisores obliga a mucha gente a cambiar su forma de ver series, sobre todo en viajes, casas alquiladas y espacios donde el truco era conectar el teléfono al televisor. Netflix insiste en que todo busca mejorar la experiencia y centrar el uso en la app nativa de cada televisor, pero el mensaje que recibe parte del público es: más control desde arriba y menos libertad para el usuario, justo cuando se habla de sumar HBO, Harry Potter, DC y Friends al mismo menú.Netflix va a intentar comprar Warner Bros., va a levantar un megacentro en Nueva Jersey y ya cambió la manera en que usamos el móvil para ver sus series en muchos televisores. Todo apunta a un gigante del entretenimiento todavía más grande, con ventajas y riesgos para bolsillos, empleos y creatividad. ¿Tú cómo lo ves: oportunidad o exceso de poder? Te invito a seguir escuchando y a seguir el pódcast Flash Diario en Spotify para comentar juntos cada nuevo giro de esta historia.Netflix compra Warner Bros., levanta megastudio en Nueva Jersey y limita casting móvil, encendiendo alertas por precios, empleos, cines globales.Bibliografía NJ.comCNBCIGNThe New York TimesMacRumorsAndroid AuthorityCNNYahoo FinanceFox BusinessTechCrunchAbout NetflixConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    ¿Nadie quiere el iPhone Air?

    Play Episode Listen Later Dec 5, 2025 9:08 Transcription Available


    El iPhone Air registra una depreciación inusual en pocas semanas. Varios mercados rechazan el formato ultradelgado por limitar batería, cámaras y funciones que sí ofrecen modelos recientes  Por Félix Riaño @LocutorCo  El iPhone Air se convirtió en un problema para Apple. En solo diez semanas perdió más valor que cualquier otro iPhone reciente, según el análisis de SellCell. Los compradores están prefiriendo modelos con más batería y cámaras completas. Este comportamiento también llevó a varias marcas en China a detener proyectos de móviles ultradelgados.  La reacción del mercado plantea una duda clara: ¿vale la pena sacrificar funciones por un diseño tan delgado? El diseño ultradelgado complica funciones clave que la gente usa a diario  El iPhone Air nació como un esfuerzo por reducir al máximo el grosor. Su cuerpo de 5,6 mm parecía un avance estético fuerte, pero sus primeras semanas en el mercado mostraron otra realidad. SellCell midió una caída promedio de 44,3 % en su valor. Los modelos de 256 GB y de 1 TB concentran las cifras más marcadas, con depreciaciones superiores a 40 %.  Los iPhone 17, en cambio, pierden menos valor. Los Pro y Pro Max tienen mejor batería, mejor gestión térmica y sistemas de cámara más completos, elementos que los compradores buscan. En esa categoría, el iPhone 17 Pro Max de 256 GB cayó 26,1 %, una cifra mucho menor y estable.  Mientras las curvas de depreciación de los iPhone 17 se estabilizan, la del Air sigue bajando, lo que indica poco interés de reventa y poca demanda sostenida.  El Air compromete funciones importantes para mantener su cuerpo delgado. La batería de 3.149 mAh es menor que la de los modelos recientes, y el sistema de cámara se reduce a un único sensor trasero. También carece de ranura para SIM física y tiene un solo parlante. Estos recortes afectan el uso diario y aumentan la sensación de limitación frente al precio de venta.  Ese precio fue un obstáculo en varios países. En Indonesia, la versión de 256 GB ronda los 1.400 dólares. Los modelos de mayor capacidad se acercan al precio de un iPhone 17 Pro, que ofrece cámara triple y mayor batería. Para muchos compradores, la comparación dejó al Air en desventaja.  En China, el panorama es similar. El teléfono es una herramienta central para pagos y servicios digitales. Allí, marcas como Xiaomi, Oppo y Vivo cancelaron o aplazaron sus propios modelos ultradelgados. Foxconn desmontó líneas de producción del Air y Luxshare dejó de ensamblarlo.  Huawei mantuvo su apuesta con el Mate 70 Air, que logra un balance distinto. Tiene 6,6 mm de grosor, pero conserva batería grande, carga rápida y triple cámara. Para varios analistas, esa combinación muestra que un diseño delgado puede funcionar si no afecta funciones esenciales.  En el resto del mercado, el mensaje es claro. Cuando un teléfono recorta capacidades para verse más delgado, pierde atractivo. Las personas valoran cámaras completas, buena batería, carga rápida y estabilidad en el uso diario. Ese equilibrio mantiene el valor de reventa.  Apple sigue trabajando en un posible Air 2. Las expectativas giran alrededor de cómo va a ajustar el diseño para evitar otra caída de valor. También hay interés por lo que traerá el iPhone 18, que podría reorganizar la familia de modelos. De momento, la gente busca teléfonos equilibrados y eso marca el rumbo de los fabricantes para 2026.  BibliografíaPhoneArenaDigital TrendsMacRumorsCreative BloqDao InsightsQoo Media Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Se cae una teoría favorita de los físicos

    Play Episode Listen Later Dec 4, 2025 11:47 Transcription Available


    Neutrinos estériles en duda: Nuevos experimentos MicroBooNE y KATRIN cuestionan existencia de neutrinos estériles y complican misterio de la materia oscura. #FísicaDePartículas  Por Félix Riaño @LocutorCo  Durante décadas, muchos físicos pensaron que en el universo existía un cuarto tipo de neutrino, uno tan silencioso que solo respondería a la gravedad. Lo llamaron neutrino estéril y creyeron que podría explicar varias rarezas que no encajaban en el Modelo Estándar de la física. Dos experimentos publicados en la revista Nature ponen en aprietos esa idea. MicroBooNE en Estados Unidos y KATRIN en Alemania han logrado mediciones más precisas y no ven señales de estos neutrinos adicionales. Esto complica la historia, porque otros experimentos sí habían detectado comportamientos extraños. ¿Qué está pasando entonces con estas partículas casi invisibles?  Los neutrinos son partículas diminutas y muy abundantes. Cruzan tu cuerpo en cantidades enormes cada segundo sin que te des cuenta, porque casi no interactúan con nada. Hasta ahora se conocen tres tipos: electrón, muón y tau. Estos neutrinos pueden cambiar de tipo mientras viajan, en un proceso llamado oscilación. Ese cambio demuestra que tienen masa, aunque sea muy pequeña. Todo esto está muy bien explicado dentro del Modelo Estándar, que es la teoría de partículas que se usa hoy.Pero desde los años 90, varios laboratorios han visto señales que no encajan. Algunos detectaron neutrinos extra; otros registraron menos neutrinos de los esperados. Esa mezcla de excesos y faltantes llevó a pensar en un neutrino estéril. Sería un tipo de neutrino que no participa en ninguna interacción salvo la gravedad. La idea emocionó a muchos porque permitiría explicar también una parte de la materia oscura, esa masa invisible que mantiene unidas a las galaxias. Ese era el panorama hasta esta semana.  El problema es que las pistas no eran claras. El experimento LSND en los 90 y más tarde MiniBooNE entre 2002 y 2019 vieron un exceso de neutrinos, como si un tipo de neutrino se transformara inesperadamente en otro. Otros experimentos con grandes depósitos de galio encontraron menos neutrinos de lo esperado. Estas señales apuntaban hacia un cuarto tipo de neutrino.  Pero la explicación tenía huecos. Ningún detector había podido confirmarlo desde varios ángulos, y las mediciones no coincidían entre sí. MicroBooNE, diseñado especialmente para revisar los resultados de MiniBooNE, tenía la misión de ver si ese exceso era real o si venía de algo distinto. Mientras tanto, el experimento KATRIN en Alemania analizaba tritio, un tipo de hidrógeno, buscando una señal muy específica: un pequeño “doblez” en la energía de los electrones. Ese doblez sería una marca clara del neutrino estéril. Ambos equipos trabajaron durante años, juntaron millones de datos y ahora presentaron sus resultados.  Los nuevos datos borran la pista, pero dejan el misterio intacto.  MicroBooNE analizó dos haces distintos de neutrinos: el BNB y el NuMI. Esto permitió romper una confusión matemática que hacía difícil interpretar resultados anteriores. Al tener dos haces con cantidades diferentes de neutrinos electrón, MicroBooNE pudo ver si realmente había apariciones o desapariciones inesperadas. La respuesta fue clara: no encontraron nada fuera de lo que predice el Modelo Estándar. Sus datos descartan con un 95% de confianza la idea de un único neutrino estéril que explique los resultados viejos.  Por otro lado, el experimento KATRIN recolectó 36 millones de electrones entre 2019 y 2021, en una medición de altísima precisión. Sus resultados tampoco ven señales de un neutrino estéril. Esto choca contra lo reportado por el experimento ruso Neutrino-4, que había asegurado detectar uno. Cuando dos experimentos muy precisos no ven la señal, la hipótesis pierde fuerza. El problema ahora no es solo que MicroBooNE y KATRIN no vean nada. Es que los experimentos antiguos tampoco estaban equivocados a simple vista. Sus datos no tenían errores obvios. Las anomalías siguen ahí, sin explicación directa. Esto crea un rompecabezas difícil de resolver. Si no es un neutrino estéril, ¿qué ocurrió entonces en LSND, MiniBooNE o en los experimentos con galio?  Los científicos sugieren otras posibilidades. Quizás exista más de un neutrino estéril, lo que haría más complejos los efectos. Otra opción es que los neutrinos tengan interacciones nuevas que aún no se han descubierto. También existe la posibilidad de que alguno de estos neutrinos se desintegre antes de llegar al detector. Todas estas ideas son especulativas, pero sirven para mostrar que el campo está en movimiento. Los neutrinos siguen siendo uno de los grandes misterios del universo.  Los resultados de MicroBooNE muestran que el exceso observado por MiniBooNE no se puede explicar con un solo neutrino estéril. Su análisis combina 14 tipos de eventos y deja una región muy pequeña donde ese cuarto neutrino podría existir. En el caso de KATRIN, la ausencia de ese “doblez” en la energía de los electrones descarta una parte enorme de lo que llamamos espacio de parámetros. Es decir, descarta una gran cantidad de posibles masas y combinaciones para ese neutrino hipotético.  Lo interesante es que estos dos experimentos atacan el misterio desde lados muy distintos. MicroBooNE se basa en haces acelerados de neutrinos. KATRIN, en cambio, mira la desintegración de un átomo. Que ambos lleguen a la misma conclusión da mucha seguridad. Aun así, no se cierra la puerta. KATRIN aún tiene años de mediciones por delante. Cuando termine su recolección de datos en 2025, tendrá seis veces más eventos para analizar. Además, en 2026 tendrá un nuevo detector llamado TRISTAN que permitirá buscar neutrinos estériles más pesados.  Mientras tanto, en Estados Unidos también avanza el programa Short Baseline Neutrino, con más detectores de argón líquido en la misma línea de MicroBooNE. Con todos estos esfuerzos reunidos, la comunidad científica espera que dentro de unos años la historia empiece a aclararse.  El Modelo Estándar explica cómo funcionan todas las partículas conocidas. Pero es incompleto porque no incluye la gravedad y tampoco explica la materia oscura. Por eso, muchos físicos esperan que los neutrinos sirvan como pista para una teoría más profunda. Los neutrinos estériles eran una de las apuestas más comentadas, ya que podrían actuar como candidatos para esa materia oscura.  Los neutrinos tienen muy poca masa, pero el hecho de que la tengan ya fue un descubrimiento enorme. En el año 2015, el Premio Nobel destacó precisamente la observación de sus oscilaciones. Esas oscilaciones implican que los neutrinos cambian de tipo mientras se mueven, un comportamiento poco común en la física de partículas.  En la Tierra, los neutrinos llegan desde muchos lugares: el Sol, las estrellas, explosiones de supernovas y reactores nucleares. También se producen en aceleradores gigantes como Fermilab. Gracias a todos esos orígenes diferentes se pueden hacer experimentos que comparan resultados y buscan patrones en sus cambios.  Hoy contamos que MicroBooNE y KATRIN no han encontrado señales del neutrino estéril, ese supuesto cuarto neutrino que muchos esperaban. Las anomalías siguen sin explicación, pero la ciencia avanza con cada experimento preciso. Si quieres seguir este viaje fascinante por el universo, te invito a seguir el pódcast Flash Diario en Spotify:https://open.spotify.com/show/3hZpVtjGWqgqATmVom54uK?si=2HttGDsxQW6PjeaXKSwI3w  

    Rusia queda sin pista espacial justo tras un vuelo exitoso

    Play Episode Listen Later Dec 3, 2025 6:21 Transcription Available


    VIAJE Y COLAPSO EN BAJKONUR: Soyuz MS-28 llega a la ISS mientras Rusia pierde su plataforma principal para lanzar astronautas  Por Félix Riaño @LocutorCo  Hoy tenemos una historia que combina alegría en órbita y preocupación en tierra. Tres viajeros espaciales llegaron bien a la Estación Espacial Internacional después de un lanzamiento impecable desde el cosmódromo de Baikonur, en Kazajistán. El astronauta de la NASA Chris Williams y los cosmonautas Sergey Kud-Sverchkov y Sergei Mikaev completaron la maniobra de acoplamiento sin contratiempos y entraron a la estación para pasar ocho meses en misiones científicas.  Todo iba perfecto arriba, pero abajo pasaba algo muy distinto. Durante el despegue, una estructura enorme que sirve para trabajar en los motores del cohete se soltó, cayó a un foso y quedó tan dañada que dejó a Rusia sin la capacidad de enviar personas al espacio mientras se hace la reparación. Es la única plataforma que Rusia tenía lista para misiones tripuladas. Ahora vienen semanas de evaluaciones, decisiones técnicas y preguntas que pueden cambiar el futuro inmediato de la estación. Si te gusta este pódcast y quieres que siga creciendo, puedes apoyar el proyecto en el Club de Supporters: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support  El vuelo salió bien, pero la base quedó fuera de servicio  El lanzamiento ocurrió a las 4:27 a.m., hora de la costa este de Estados Unidos. El cohete Soyuz 2.1a subió sin problemas y, nueve minutos y 45 segundos después, liberó la nave Soyuz MS-28 con sus paneles solares abiertos y una ruta precisa hacia la estación. Tres horas después, la tripulación se unió al módulo Rassvet. Chris Williams celebraba su primera misión como astronauta, un paso enorme después de haber trabajado como astrónomo, físico médico y bombero voluntario. Sus dos compañeros, Kud-Sverchkov y Mikaev, completaron la tripulación con experiencia y entrenamiento internacional. La estación pasó a tener once personas trabajando juntas, listas para ingresar a uno de los periodos más activos del año en experimentos.  Mientras ellos flotaban felices, un dron mostraba en Baikonur algo muy distinto: una cabina de mantenimiento de más de 100 toneladas caída sobre el foso por donde escapa el fuego del cohete. Esa cabina debía estar asegurada bajo la plataforma. Al parecer, los bloqueos no aguantaron la presión del despegue. El golpe dejó la estructura destripada y fuera de servicio. Ese detalle importa porque esa cabina es parte del único sitio ruso certificado para lanzar naves tripuladas y las Progress de carga, que ayudan a elevar la estación y a estabilizar su orientación con combustible.  Roscosmos aseguró que tienen repuestos, pero varios expertos dicen que reparar o reemplazar la cabina puede tomar meses. El próximo envío de carga ya tuvo que aplazarse y la estación va a depender más de Dragon y Cygnus para mantener su altura. Esto cambia la balanza: deja a Rusia sin capacidad inmediata de enviar personas y presiona a NASA y SpaceX justo cuando el calendario de la estación está lleno. Falta ver cuánto tarda el diagnóstico oficial y qué tan rápido van a actuar para recuperar la plataforma.  El sitio 31/6 lleva funcionando desde finales de los años 50. Es el único lugar operativo desde donde Rusia puede lanzar misiones tripuladas. Sitios como Plesetsk y Vostochny no sirven para llegar a la órbita de la estación y el histórico Gagarin's Start es hoy un museo. Hay piezas de repuesto en bodegas y existe la opción de desmontar equipos antiguos, pero todo depende de inspecciones y permisos. Mientras tanto, la ISS sigue con once tripulantes y con un calendario de rotación que ahora depende más de SpaceX para mantener los relevos.  La misión Soyuz MS-28 cumplió sin fallas. Pero el daño en Baikonur dejó a Rusia sin plataforma para enviar personas al espacio, una situación que obliga a replantear el calendario de vuelos a la Estación Espacial Internacional. Mientras llegan las evaluaciones, la estación sigue activa. Si quieres enterarte de estas historias cada día, sigue Flash Diario en Spotify.  La Soyuz llegó bien a la estación, pero la plataforma cayó y dejó a Rusia sin lanzamientos tripulados por un tiempo.  BibliografíaSpaceflight NowNASASpaceflightArs TechnicaLive ScienceNew ScientistReutersNASA BlogFuturismThe New York Times

    ¿Es privado tu teléfono laboral? La respuesta incomoda

    Play Episode Listen Later Dec 2, 2025 8:37 Transcription Available


    Actualización de Android permite que empresas lean mensajes SMS, MMS y RCS en móviles laborales administrados  Por Félix Riaño @LocutorCo  En móviles de trabajo administrados, Android permite que empleadores lean mensajes SMS, MMS y RCS para cumplir reglas legales.  Google activó una función de archivado de mensajes en móviles Android administrados por departamentos de TI. Afecta exclusivamente a teléfonos de trabajo entregados por la empresa. Es una herramienta creada para cumplir reglas legales de sectores como finanzas, seguros o entidades públicas. Y genera dudas porque mucha gente cree que la encriptación protege todo el tiempo, cuando solo protege durante el envío. ¿Qué ocurre cuando el mensaje ya está en el móvil laboral?   Apoya el Flash Diario en el Club de Supporters: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support   La función que está generando debate se llama RCS Archival. El nombre puede sonar técnico, pero la idea es directa: cuando un móvil es propiedad de la empresa y está totalmente administrado por el área de TI, los mensajes enviados desde la app Google Messages pueden quedar archivados en un sistema de cumplimiento legal. Esto incluye RCS, SMS y MMS, es decir, mensajes tradicionales y los nuevos mensajes enriquecidos.Google explica que esto permite a organizaciones cumplir reglas de entidades como la Comisión de Bolsa y Valores de Estados Unidos, que exige conservar comunicaciones en sectores regulados. El archivado se activa por medio de apps de terceros que se integran dentro de Google Messages. Todo ocurre dentro del dispositivo, sin enviar datos a Google. Y aparece un aviso claro cuando el archivado está activo. Ante esto, surge una duda natural: ¿qué pasa con los mensajes que la persona creía privados?  El problema llega cuando mezclamos “móvil de trabajo” con “hábitos de comunicación personal”. Mucha gente usa el móvil laboral para conversaciones rápidas con compañeros, amistades o familiares, pensando que los mensajes son privados. Pero en móviles administrados, la empresa controla el sistema y puede activar funciones de archivado. Y aquí aparece el choque entre costumbre y realidad: la encriptación extremo a extremo protege el mensaje mientras viaja, pero cuando el mensaje llega al móvil ya está desencriptado, porque la app debe mostrarlo en pantalla.En esos segundos, una app de archivado aprobada puede copiarlo y guardarlo para cumplir normas de auditoría. No afecta a móviles personales. No afecta a WhatsApp, Telegram, Signal o iMessage. Aun así, muchas personas usan el móvil laboral como si fuera propio. Esto abre una conversación sobre límites, transparencia y confianza en entornos laborales donde cada vez hay más controles digitales.Muchos creen que la encriptación cubre todo, pero no es así.  Es importante entender cómo funciona RCS, el estándar moderno de mensajería en Android. RCS permite ver confirmaciones de lectura, fotos, audio, video y reacciones dentro de la app Google Messages. También permite encriptación extremo a extremo entre móviles Android. Pero todo eso depende del software del dispositivo. En un móvil personal, la app es privada. En un móvil administrado, la app está bajo control del área de TI.Para cumplir reglas legales, esas áreas deben conservar comunicaciones completas de ciertos empleados. Antes, esto se hacía mediante registros creados por operadores móviles. Con RCS, eso ya no funciona porque los operadores no pueden leer mensajes encriptados. La solución fue crear un archivado local, en el propio móvil administrado. Desde allí, la copia pasa a sistemas internos de la empresa que deben garantizar seguridad y confidencialidad.Las herramientas que participan en este proceso son de terceros, como Smarsh, Celltrust y 3rd Eye. Son plataformas usadas en bancos, aseguradoras y entidades públicas para auditorías, demandas, solicitudes de información o investigaciones internas.  El verdadero aprendizaje aquí es práctico: si un móvil es propiedad de la empresa, no debe considerarse privado. El aviso que aparece cuando el archivado está activo sirve para mantener transparencia, pero la responsabilidad también está en cada persona. Por eso, los expertos recomiendan separar completamente lo personal y lo laboral.Google aclara que la función no toca móviles personales, ni perfiles personales dentro de móviles compartidos, ni apps de mensajería externas. Aun así, este cambio abre una conversación más amplia sobre la relación entre privacidad y tecnología en el trabajo. Muchas empresas entregan móviles para facilitar tareas, pero esto genera un intercambio: comodidad por supervisión.Esto puede aumentar en el futuro: otros fabricantes Android podrían adoptar herramientas similares. También podrían aparecer nuevas formas de separar perfiles, donde el perfil laboral tenga archivado obligatorio mientras el perfil personal permanezca blindado. Hasta que eso ocurra, la recomendación es simple: usar el móvil laboral como una herramienta laboral y mantener lo personal en un dispositivo propio.  Google activó un archivado de mensajes en móviles Android administrados por el área de TI. Funciona para cumplir reglas legales y solo aplica en dispositivos de trabajo. Los mensajes personales quedan fuera si se usan móviles privados o apps externas. Es útil conocer estos límites y separar tareas. Sigue escuchando Flash Diario.  Android activa archivado de mensajes en móviles laborales. Tu jefe puede ver SMS, MMS y RCS si el móvil es administrado.  

    El Siglo 21 es Hoy Temporada 14

    Play Episode Listen Later Dec 1, 2025 2:35 Transcription Available


    El Siglo 21 es Hoy adelanta su Temporada 14 con una serie especial sobre el mito de Kodak: ya puedes escuchar la Parte 1  Hoy, 1 de diciembre, el pódcast El Siglo 21 es Hoy estrena adelantada su Temporada 14 con una serie documental dedicada a la historia de Kodak, la marca que transformó la forma en que el mundo toma y guarda fotografías.La serie comienza con el episodio “El nacimiento del mito”, donde Félix Riaño cuenta cómo empezó todo: quiénes podían pagar una fotografía en los inicios de la industria, por qué nadie sonreía en los retratos antiguos y qué significaba hacerse un álbum familiar antes de que la fotografía fuera algo cotidiano.   Ya puedes escuchar este episodio con un clic: 

    Medio mundo sigue en Windows 10

    Play Episode Listen Later Nov 28, 2025 8:35 Transcription Available


    Cerca de mil millones de PCs siguen sin Windows 11. Muchos no pueden actualizar y otros prefieren no hacerlo por costos y compatibilidadPor Félix Riaño @LocutorCo Dell reveló que cerca de 500 millones de computadores que sí pueden actualizar a Windows 11 todavía siguen usando Windows 10, incluso después del fin de soporte. Otros 500 millones llevan más de cuatro años en servicio y ya no cumplen los requisitos mínimos del nuevo sistema. Dell y HP coinciden en que este retraso crea un ciclo de renovación muy largo, impulsado también por el auge de los “AI PCs”. ¿Será que la pereza para actualizar es más fuerte que cualquier anuncio de Microsoft?  Si te gusta que el Flash Diario te acompañe cada día con noticias útiles de tecnología, puedes apoyar este proyecto en el Club de Supporters. Tu apoyo mantiene vivo este espacio y ayuda a que llegue a más personas: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/supportDell explicó que el mercado global de computadores tiene cerca de 1.500 millones de máquinas en uso. Dentro de ese gigantesco grupo, unos 500 millones sí cumplen los requisitos para usar Windows 11, pero sus dueños prefieren mantener Windows 10. Esto ocurre incluso después de que Microsoft terminó su fase de soporte, que significa que ya no ofrece actualizaciones de seguridad mensuales. A este número se suman otros 500 millones de computadores que ya tienen cuatro años o más y no pueden ejecutar Windows 11, debido a las exigencias de procesador, seguridad por hardware y módulos TPM. Este escenario creó un freno enorme en la transición. Microsoft comparó esta situación con la actualización anterior: cuando llegó Windows 10, el salto desde Windows 8 fue más rápido que lo que estamos viendo ahora. Dell aclaró que estamos entre 10 y 12 puntos por detrás del ritmo de la transición previa. Y todo esto sucede en un mercado que Dell describe como “relativamente plano” de cara al próximo año. La mitad del problema está en los requisitos de Windows 11. Mucha gente tiene computadores que funcionan bien, pero que no traen un módulo TPM 2.0 o un procesador compatible. La otra mitad está en la costumbre: Windows 10 es estable, familiar y sigue presente en muchas empresas que no actualizan sin pruebas internas largas. HP añadió un dato relevante: al cierre del trimestre, el 40 % de los computadores activos en sus registros todavía usa Windows 10. Ese número explica por qué la transición se volvió tan lenta. Además, los precios de memoria RAM y almacenamiento han aumentado por la demanda de hardware para inteligencia artificial. Esto afecta a cualquier persona que piense en armar o actualizar un PC para que cumpla con los requisitos de Windows 11. Dell mencionó que muchos fabricantes están enfocando su producción en módulos más costosos para cargas de IA, lo que limita la disponibilidad de componentes más económicos. Todo esto crea un entorno en el que cambiar de PC puede ser más caro de lo esperado. A pesar del ritmo lento, Dell y HP ven una oportunidad. Las empresas están adoptando cada vez más los llamados “AI PCs”, computadores con unidades especiales para tareas de inteligencia artificial. HP reportó que más del 30 % de sus envíos del trimestre ya son máquinas con estas capacidades. Esto puede impulsar una transición gradual hacia Windows 11 a medida que la gente busca equipos más modernos. Dell también destacó que muchos centros de datos llevan generaciones de servidores atrasados. Cambiar un solo servidor viejo por uno nuevo ahorra energía, espacio y mantenimiento, y esto influye en los precios y en la disponibilidad de componentes para los consumidores. Si la industria logra estabilizar los costos de memoria y almacenamiento, el ritmo de renovación de computadores personales podría acelerar. Aunque hoy muchos usuarios sigan cómodos con Windows 10, las presiones técnicas van a empujar a más personas hacia Windows 11 en los próximos años.  Microsoft declaró hace poco que “casi mil millones de personas dependen de Windows 11”, pero no aclaró qué significa “depender” ni detalló cuántos dispositivos activos están realmente en ese sistema operativo. Antes, la empresa daba cifras mensuales claras de dispositivos con Windows. Ahora la comunicación es menos directa, lo que deja margen de interpretación.  En la industria, Dell reportó un crecimiento importante en servidores y redes, sobre todo los equipos diseñados para inteligencia artificial. Sus ventas en este segmento crecieron un 37 % anual y su cartera de pedidos para servidores de IA sigue en aumento. También mencionó que los aprendizajes del manejo de cadenas de suministro durante la pandemia le sirven hoy para enfrentar los cambios rápidos en tarifas y producción. Para el usuario común, todo esto se traduce en ciclos de renovación mucho más largos y decisiones más cuidadosas al momento de cambiar de computador o sistema operativo.  BibliografíaThe VergeTheStreetPC GamerThe Register

    Rescate urgente en Tiangong

    Play Episode Listen Later Nov 27, 2025 6:56 Transcription Available


    China lanzó Shenzhou-22 como cápsula de rescate tras una grieta causada por basura espacial que dejó sin retorno a tres taikonautas en TiangongChina resolvió una situación compleja en Tiangong lanzando Shenzhou-22 como cápsula de rescate. Los taikonautas ya cuentan con una salida segura y la estación vuelve a operar sin riesgos inmediatos. Si te gustan estas historias del espacio, te invito a apoyar este proyecto y seguir Flash Diario en Spotify para no perderte nada.Por Félix Riaño @LocutorCoChina activó por primera vez su plan de rescate espacial de emergencia al lanzar la nave Shenzhou-22 sin tripulación hacia la estación Tiangong. Esta operación se volvió necesaria después de que la Shenzhou-20 sufriera un impacto de basura espacial que agrietó una de sus ventanas. Esa fisura comprometió la integridad de la cápsula para realizar un descenso seguro a través de la atmósfera terrestre. Por esa razón, tres taikonautas —así se llama en China a sus exploradores espaciales, del mismo modo que Estados Unidos usa “astronautas” y Rusia “cosmonautas”— quedaron viviendo en la estación sin un vehículo de retorno. Con la llegada de Shenzhou-22, los riesgos disminuyeron y la estación vuelve a tener una vía segura de regreso para completar la misión.El plan funcionó, pero deja nuevas preguntas sobre seguridad orbital.Shenzhou-22 despegó desde el Centro de Lanzamiento de Jiuquan, en pleno desierto del Gobi, usando un cohete Long March 2F/G que ya estaba listo como respaldo. China siempre mantiene un cohete y una cápsula preparados para responder a eventos inesperados, y esta vez ese protocolo permitió actuar en dieciséis días. El acoplamiento se produjo unas horas después del lanzamiento y se completó sin contratiempos. Los tres taikonautas de la misión Shenzhou-21, Zhang Lu, Wu Fei y Zhang Hongzhang, llevaban diez días sin un vehículo de retorno debido a la cadena de eventos iniciada por el daño en la Shenzhou-20. Lo que parecía improbable terminó generando la primera activación real del sistema de emergencia chino.La grieta en la Shenzhou-20, causada por basura espacial, convirtió una cápsula normal en un riesgo directo para cualquier reentrada. Ese pequeño impacto reorganizó todo el plan de rotación de tripulaciones. Primero retrasó la salida de la misión anterior; después obligó a usar la Shenzhou-21 como vehículo de regreso para esa tripulación, dejando sin cápsula de emergencia a los recién llegados. Durante once días, los taikonautas vivieron en Tiangong sin una forma segura de evacuar si ocurría un problema mayor. Y la basura espacial sigue aumentando por la cantidad de fragmentos generados por colisiones previas, satélites antiguos y restos que continúan orbitando la Tierra. Ese crecimiento convierte cada misión en un ejercicio continuo de prevención.La llegada de Shenzhou-22 eliminó ese riesgo inmediato. La nave llegó cargada con suministros médicos, alimentos frescos, repuestos técnicos y herramientas para evaluar y reparar la ventana dañada de la Shenzhou-20. También aporta tranquilidad emocional, algo muy importante para quienes pasan meses en órbita. Según el plan, esta cápsula servirá para traer de regreso a la misión Shenzhou-21 en abril de 2026, cuando llegue la siguiente rotación, prevista como Shenzhou-23. Aunque la Shenzhou-20 seguirá acoplada unos meses más para experimentos, deberá salir antes de que llegue la tripulación de reemplazo. Esta operación demuestra que los protocolos de reacción rápida funcionan y que la carrera por mantener estaciones habitadas requiere ajustar planes con rapidez. Tanto China como Estados Unidos están comparando procesos en medio de la competencia por llevar nuevamente seres humanos a la Luna hacia el año 2030.El rescate de Shenzhou-22 se suma a otros casos recientes que muestran cómo cada país aprende sobre la marcha. En 2024, dos miembros de la NASA, Suni Williams y Butch Wilmore, permanecieron nueve meses en la Estación Espacial Internacional por fallas en la cápsula Boeing Starliner. Ellos no estuvieron sin cápsula de emergencia porque la estación siempre mantiene varias naves listas. El sistema chino funciona distinto: solo hay una cápsula activa por rotación, por eso la grieta en la Shenzhou-20 creó un vacío inmediato. Shenzhou-22 también llevó fruta fresca, verduras, pollo, carne y pastel para el “horno espacial”, un dispositivo diseñado para calentar comida en microgravedad. Esta misión también sirve para poner a prueba la estrategia de “respaldo rodante”, que consiste en tener una cápsula lista para cada fase de la operación. Es una forma de mitigar riesgos mientras Tiangong continúa en pleno uso.BibliografíaSpace.comReutersPhys.orgAl JazeeraNPRStratNews GlobalXinhuaSpace.com – segunda notaThe Japan TimesConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

    Starliner solo carga

    Play Episode Listen Later Nov 25, 2025 10:26 Transcription Available


    NASA confirma que la próxima misión de Starliner no tendrá astronautas y será una prueba con carga hacia la Estación Espacial Internacional   Por Félix Riaño @LocutorCo  Si este pódcast te acompaña cada día y quieres que sigamos creciendo, puedes apoyar el proyecto en el Club de Supporters.Boeing y NASA tomaron una decisión fuerte y necesaria: la cápsula Starliner, que forma parte del programa espacial comercial de Estados Unidos, ya no llevará astronautas en su próxima misión. En caso de que no conozcas estos nombres, Boeing es una empresa aeronáutica que fabrica aviones y naves espaciales, y NASA es la agencia espacial de Estados Unidos. Starliner es la cápsula que Boeing construyó para transportar personas hacia la Estación Espacial Internacional. Después de los fallos en su vuelo tripulado, Boeing y NASA acordaron que lo más sensato es enviar la próxima misión sin humanos, solo con carga, para asegurarse de que todo está funcionando bien. Ahora la pregunta incómoda es: ¿cuántas oportunidades quedan antes de que el reloj del 2030 marque el final de la Estación Espacial?  La historia de Starliner es la historia de un proyecto que nació en 2014 cuando NASA contrató a Boeing y a SpaceX para crear naves capaces de llevar astronautas hacia la Estación Espacial Internacional. NASA pagó 4.2 mil millones de dólares para que Boeing construyera Starliner y lo dejara listo para misiones tripuladas. En teoría, la cápsula debía alternarse con el Crew Dragon de SpaceX, para que Estados Unidos tuviera siempre dos opciones de transporte hacia la órbita baja.  Pero el vuelo tripulado de Starliner en 2024 dejó muchas dudas. Los dos astronautas de NASA, Butch Wilmore y Suni Williams, lograron llegar a la Estación Espacial, pero no pudieron regresar en la cápsula. Fue necesario pedir asiento de regreso en una nave de SpaceX. Esa situación hizo que el proyecto recibiera una revisión completa y un ajuste profundo. Ahora todo está concentrado en un vuelo sin personas que permita evaluar cada pieza.  Los defectos más complejos de Starliner están en su sistema de propulsión, en los “doghouses”, que son zonas donde van alojados los propulsores que controlan la orientación y velocidad de la nave. Durante la aproximación a la Estación Espacial, varios de esos propulsores fallaron. Algunos se apagaron antes de tiempo; otros no respondieron con la fuerza esperada. Como la cápsula debe funcionar de forma autónoma y segura, NASA decidió no arriesgar vidas humanas hasta que esas fallas estén completamente controladas.  A esto se suma el tiempo limitado que le queda a la Estación Espacial. Está previsto que deje de funcionar en 2030. Eso deja cada vez menos oportunidades para que Starliner pueda completar su ciclo de misiones. Originalmente iban a ser seis vuelos tripulados. Ahora serán solo cuatro, y el primero de ellos ya no será para personas. Este recorte también ajusta el valor del contrato, que baja casi 768 millones de dólares, según datos revisados por Reuters.  El plan actualizado es claro: Starliner tendrá un vuelo sin astronautas en abril de 2026. Esta misión llevará carga esencial para la Estación Espacial y permitirá verificar si las mejoras realizadas funcionan en condiciones reales del espacio. Si todo sale bien, las otras tres misiones servirán para rotar tripulaciones entre la Tierra y la Estación Espacial.  Este calendario deja a Starliner con apenas tres oportunidades para probar que su sistema está preparado antes del final del ciclo de vida de la Estación Espacial. Mientras tanto, SpaceX continúa operando con regularidad. Ya realizó doce misiones para NASA, con un vehículo que ha demostrado ser consistente y seguro.  El vuelo carguero será clave porque mostrará si los cambios hechos por Boeing y NASA pueden sostenerse en condiciones extremas. Y también mostrará si Estados Unidos podrá mantener dos vehículos activos para garantizar independencia tecnológica y evitar depender de naves rusas en caso de que ocurra algún imprevisto con Crew Dragon.  Starliner nació para complementar a Crew Dragon, no para competir. NASA siempre quiso tener dos proveedores para evitar depender de un único vehículo, un aprendizaje que viene desde los días en que los astronautas debían viajar en cápsulas rusas Soyuz. Los contratos de 2014 buscaban evitar ese escenario.  Mientras Starliner sigue en reparación profunda, SpaceX aprovecha la ventaja operacional. Lleva desde 2020 lanzando misiones tripuladas sin interrupciones. Eso le ha permitido a NASA cubrir sus necesidades sin quedar desprotegida.  El recorte de misiones también se debe al final de la Estación Espacial. La órbita baja no va a quedarse sin presencia humana, pero después de 2030 la Estación será reemplazada por estaciones comerciales. Boeing quiere que Starliner participe en ese futuro, pero todo depende de su rendimiento en las próximas pruebas. Si la misión carguera demuestra estabilidad y precisión, Starliner puede encontrar un espacio en esa nueva etapa.  BibliografíaABC NewsSpaceNewsBloombergArs TechnicaSeeking AlphaReutersSeattle PIABC NewsSpaceNewsBloombergArs TechnicaSeeking AlphaReutersSeattle PI

    ⚡ Steam Machine y su precio ⚡

    Play Episode Listen Later Nov 24, 2025 8:41 Transcription Available


    La Steam Machine no tendrá subsidio. Puede costar 700 a 900 dólares. Es un PC para tu televisor, pequeño y silenciosoValve confirma Steam Machine sin subsidio y anticipa precio alto comparado con consolas actuales del mercado  Por Félix Riaño @LocutorCo  Valve es una empresa estadounidense conocida por crear Steam, una plataforma digital donde millones de personas compran y juegan videojuegos en computadores. Steam funciona como una tienda y también como una biblioteca personal: guardas tus juegos, los instalas donde quieras y se actualizan solos. Ahora, Valve prepara la Steam Machine, un pequeño computador para el televisor que funciona con su sistema SteamOS y que promete una experiencia directa desde el sofá.  Todo sonaba a rival directo de consolas como PlayStation o Xbox, pero ahora sabemos que el precio va a ser más alto de lo que muchos esperaban. Y aquí nace la pregunta que nos va a acompañar todo el episodio: ¿hasta qué punto un dispositivo tan caro termina compitiendo con las series y películas que hoy vemos para pasar el tiempo?  Si quieres apoyar este proyecto independiente y recibir beneficios especiales, puedes hacerlo aquí:https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support  Valve mostró la Steam Machine como un cubo compacto de unos 15 centímetros de alto, ancho y fondo. Es del tamaño de una pequeña caja de regalo, pero dentro lleva un procesador AMD Zen 4 de seis núcleos y doce hilos capaz de llegar a 4,8 GHz, además de una tarjeta gráfica AMD RDNA 3 con 28 unidades de cómputo. Todo está optimizado para funcionar con poco ruido y para integrarse con un televisor con apenas pulsar un botón en el control.  SteamOS, el sistema operativo basado en Linux creado por Valve, se enfoca en una experiencia de sofá: encender, elegir juego y jugar. Nada más. La idea es que este PC compacto tenga funciones que un computador armado en casa no ofrece fácilmente, como encendido desde el control, Bluetooth preparado para cuatro mandos y una salida DisplayPort que permite llegar a 4K a 240 Hz. Viene con ranura microSD para mover juegos entre Steam Machine, Steam Deck y Steam Frame como si fueran tarjetas intercambiables.Aquí viene el giro: el precio puede estar entre 700 y 900 dólares, según medios especializados. Es un valor alto para algo que se ve como una consola, aunque sea un PC compacto. La razón es clara: Valve no planea vender este equipo con pérdidas. Las consolas suelen tener precio bajo porque recuperan dinero con las ventas de juegos y suscripciones, pero en PC eso no funciona igual, porque los jugadores tienen libertad de comprar donde prefieran.Los ingenieros explicaron que la Steam Machine va a costar lo mismo que un PC armado con rendimiento parecido. Esto coloca el dispositivo en una zona extraña: más costoso que una consola, pero menos personalizable que un PC grande. Además, el mercado de memorias RAM y almacenamiento está subiendo, lo cual afecta el precio final. Este detalle preocupa a quienes deseaban un equipo que reemplazara su consola sin invertir tanto dinero.Un exejecutivo de Xbox sugirió públicamente que Valve debería dejar que terceros fabriquen sus propias Steam Machines con SteamOS en diferentes configuraciones para ofrecer opciones más baratas. Valve aclaró que eso ya es posible y equipos como el Lenovo Legion Go S lo demuestran. Aun así, pocos fabricantes toman ese camino porque implica invertir en diseño, soporte y actualizaciones constantes.Valve defiende que el valor de la Steam Machine está en la experiencia: silencio, tamaño pequeño, encendido desde el control, compatibilidad con miles de juegos de Steam y la posibilidad de mover tarjetas microSD con juegos entre varios dispositivos. Todo eso apunta a una consola-PC pensada para personas que quieren comodidad sin lidiar con cables ni torres grandes. El detalle es que la comodidad tiene un costo alto, y ahí está el debate.El equipo llega con dos opciones de almacenamiento: 512 GB o 2 TB en formato NVMe, ambas compatibles con microSD de alta velocidad. Usa Wi-Fi 6E, Bluetooth 5.3 y un conjunto de antenas diseñadas para conexiones estables con varios controles. Cuenta con DisplayPort 1.4 y HDMI 2.0, suficientes para 4K fluido. Todo en un cuerpo de 2,6 kg, más liviano que muchas consolas actuales.Valve apuesta por una Steam Machine sin subsidio y con precio de PC compacto. Es pequeña, silenciosa y pensada para jugar desde el sofá con comodidad. El costo puede sorprender, pero también puede abrir un espacio nuevo entre consola y PC. ¿Tú pagarías 800 dólares?Sigue el pódcast en Flash Diario para más historias cada día.  BibliografíaWccftechTom's HardwarePC GamerIGNWiredEngadget

    Nano Banana Pro

    Play Episode Listen Later Nov 21, 2025 13:55 Transcription Available


    Google lanza Nano Banana Pro con texto claro, control avanzado y mejor razonamiento visual para creadores  Por Félix Riaño @LocutorCo  Si quieres apoyar este pódcast y escucharlo sin comerciales en la app de Spreaker, puedes unirte al Club de Supporters por solo 2 dólares al mes. Gracias por apoyar el Flash Diario y ayudar a que siga creciendo.  Nano Banana Pro mejora la creación visual con texto legible, razonamiento avanzado y controles de edición precisos.Google presentó Nano Banana Pro, una actualización que hace más natural la creación de imágenes dentro de Gemini. El texto dentro de las fotos ya no parece escrito al revés, las referencias se mezclan con más orden y las instrucciones largas se entienden sin enredos. Es una mejora que se siente cuando la herramienta responde por fin como querías desde el principio.Y eso deja una duda muy realista: si ya crea imágenes con tanto detalle, ¿cuánto falta para que también arme una serie completa… y la historia tenga más sentido que la última temporada de nuestra serie favorita?Invitación al apoyo del pódcast  Nano Banana Pro evoluciona lo que ya hacía el modelo anterior, pero ahora se apoya en Gemini 3 Pro para interpretar mejor las instrucciones. El cambio más visible está en el texto dentro de las imágenes. Ya no hay letras deformes ni frases incompletas. Las palabras aparecen bien formadas, incluso en varios idiomas, lo que permite crear etiquetas, diagramas y diseños con más claridad.El modelo también permite usar hasta 14 imágenes de referencia y conserva la identidad de hasta cinco personas dentro de una misma composición. No distorsiona rasgos ni cambia rostros cuando se mezclan varias fuentes. Esto ayuda en diseño, publicidad, educación y creación de personajes. La herramienta entiende mejor la idea general y arma una imagen final con más orden y coherencia.  Esta mejora trae un reto que no podemos ignorar: ya no es tan fácil detectar imágenes creadas con IA. Las fallas tipográficas eran una pista rápida para saber si una foto era falsa. Esa pista desapareció. Esto complica la verificación de contenido en redes sociales, donde las imágenes se comparten sin contexto.Google usa SynthID, un marcador invisible que permite identificar si una imagen viene de sus modelos. Pero algunos estudios demostraron que estas marcas se pueden borrar con herramientas avanzadas. Además, muchas plataformas todavía no muestran alertas automáticas sobre imágenes generadas con IA. Eso significa que la verificación queda en manos de cada usuario, lo que abre una brecha entre lo que vemos y lo que podemos confirmar.  Nano Banana Pro ofrece controles que antes solo se encontraban en estudios profesionales. Puedes ajustar iluminación, ángulos de cámara, profundidad de campo, colores y transformaciones completas en escenas, como cambiar de día a noche. También genera contenido en 2K y 4K para pantallas grandes o impresos.El modelo está disponible en la app de Gemini, en la API para desarrolladores, en Google Ads, en Workspace, en NotebookLM y dentro de Adobe Firefly y Photoshop. En estas herramientas permite crear piezas visuales complejas, ajustar detalles con precisión y trabajar con varias referencias sin perder coherencia. Con este lanzamiento, Google acerca funciones avanzadas a más personas.  Nano Banana Pro convierte instrucciones simples en diagramas e infografías basadas en datos reales. Gracias a su conexión con Google Search, puede representar recetas, estados del tiempo o información educativa sin pasos intermedios. Esto puede ser útil para estudiantes, profesores, periodistas o equipos creativos.En precios, la orientación profesional es clara. Una imagen 2K cuesta $0,139 dólares y una imagen 4K cuesta $0,24 dólares. En la app de Gemini, las cuentas gratuitas tienen un número limitado de generaciones antes de volver al modelo anterior.Las imágenes generadas llevan SynthID y, en planes básicos, un distintivo visible llamado “Gemini sparkle”. En el plan Ultra, esta marca visible no aparece. Google planea llevar la verificación también a audio y video con esta misma tecnología.Segmento adicional: agradecimiento para oyentesGracias por estar aquí cada día. Este espacio existe para que entendamos juntos la tecnología sin ruido y con buena energía. A quienes escuchan desde hace tiempo, gracias por su compañía constante. Y a quienes llegan por primera vez, bienvenidos. Este pódcast es para ustedes.  Nano Banana Pro ya aparece en varios servicios de Google. En Workspace funciona dentro de Slides y Vids para crear presentaciones visuales completas. En Google Ads permite generar piezas adaptadas a campañas. En Google Antigravity ayuda a diseñar prototipos e interfaces desde bocetos.Adobe integró el modelo dentro de Firefly y Photoshop. En Photoshop impulsa Generative Fill con ajustes de iluminación, perspectiva y textura. En Firefly combina referencias y genera composiciones complejas para proyectos editoriales o publicitarios. Esto acelera la creación visual y sube el nivel de detalle disponible para cualquier persona. Medios, empresas y creadores independientes verán una transformación en sus flujos de trabajo.  )Nano Banana Pro mejora la creación visual con texto claro, ediciones detalladas y composiciones más estables. Ofrece nuevas opciones creativas y abre preguntas sobre cómo verificamos lo que vemos en pantalla.Puedes seguir el pódcast en Flash Diario en Spotify.  Nano Banana Pro crea texto claro, mezcla referencias y trabaja en 4K. Facilita diseños avanzados y complica distinguir imágenes reales.Bibliografía The VergeInteresting EngineeringAdobe BlogCNETThe RegisterZDNetTechRadarTechCrunchGoogle Blog – TipsGoogle Blog – DeepMindGoogle Blog – Español

    Amazon trae recaps inteligentes

    Play Episode Listen Later Nov 20, 2025 8:51 Transcription Available


    Amazon lanza sus nuevos Video Recaps con inteligencia artificial para resumir temporadas completas en minutos   Por Félix Riaño @LocutorCo  Apoya el Flash Diario y escúchalo sin comercialesPrime Video activa Video Recaps, un sistema que usa inteligencia artificial para crear resúmenes visuales de temporadas completas con narración, música y diálogos sincronizados. Llega en fase beta para varias series populares. Los Video Recaps llegan como una evolución natural de los resúmenes de texto que Prime Video ya ofrecía. La idea es facilitarle la vida a quienes vuelven a una serie después de meses o años y ya no recuerdan dónde iban las historias. La inteligencia artificial analiza todos los arcos de personajes, los puntos clave de la temporada y selecciona escenas que muestran los momentos que más ayudan a entender qué viene después. La IA también organiza la secuencia de esos fragmentos para que la narración suene coherente al oído, como si fuera un tráiler de la propia serie. El objetivo es que cualquier persona pueda ponerse al día en menos de tres minutos.Estos Video Recaps están disponibles primero en Estados Unidos y en unos cuantos títulos: Fallout, Tom Clancy's Jack Ryan, Upload, Bosch y The Rig. Para encontrarlos, solo hay que entrar a la página de la serie, avanzar a la siguiente temporada y tocar el botón “Recap”. Allí aparecen las opciones de resumen: texto o video. Esta apuesta es también una vitrina de lo que Amazon está haciendo con Bedrock, su modelo de inteligencia artificial. Es una mezcla de análisis de guion, extracción de escenas, sincronización de audio y producción automática. Todo esto lo hace el sistema antes de que tú lo pidas, así que el video ya está listo. La llegada de estos resúmenes automáticos abre una discusión que ya se está repitiendo en la industria del entretenimiento: ¿hasta dónde vamos a dejar que la inteligencia artificial tome tareas que antes hacían equipos humanos? Los recaps tradicionales, esos que salen al inicio de las temporadas, son un trabajo editorial. Requieren que alguien mire toda la temporada, decida qué es esencial, qué es prescindible y cómo contarlo sin arruinar sorpresas. La IA de Amazon intenta replicar este proceso, pero no siempre tiene el criterio narrativo de una persona. Hay quienes sienten que estos videos pueden ser útiles y, al mismo tiempo, pueden desplazar trabajos creativos. El debate está ahí. Prime Video no está sola en este movimiento. YouTube TV ganó un Emmy técnico gracias a “Key Plays”, que resume partidos en directo para ponerse al día cuando llegas tarde a un juego. Netflix está usando IA para escenas complejas, rejuvenecimiento digital y previsualización de sets. La industria está adoptando estas herramientas para reducir tiempos y costos. Amazon, de hecho, está impulsando esta tecnología en muchos frentes: desde recomendaciones hasta resúmenes de eventos deportivos. El lanzamiento de Video Recaps coincide con una inversión de USD 15 000 000 000 en bonos para reforzar su infraestructura de IA. 

    Las mejores Apps de Google Play en 2025

    Play Episode Listen Later Nov 19, 2025 9:03 Transcription Available


    Google Play anuncia las mejores apps y juegos de 2025 con Focus Friend y Pokémon TCG Pocket liderando.  Por Félix Riaño @LocutorCoApoya el Flash Diario y escúchalo sin comercialesGoogle Play presentó los ganadores del 2025, una selección esperada cada año por desarrolladores y usuarios de Android. La sorpresa llegó cuando Focus Friend, la app de Hank Green para mejorar la concentración, consiguió el premio principal por encima de proyectos basados en inteligencia artificial. En juegos, Pokémon TCG Pocket se llevó el título mayor gracias a su adaptación fiel del clásico juego de cartas. Google también destacó apps y juegos que funcionan igual en varios dispositivos. ¿Qué nos dice esta lista sobre la forma en que usamos la tecnología hoy?La lista de Google Play refleja los cambios del año en el mundo de las aplicaciones. El premio a Focus Friend muestra que muchas personas quieren herramientas sencillas para organizarse sin sentirse abrumadas. Este proyecto combina un temporizador con un pequeño personaje que te anima a seguir concentrado. Su estilo tierno, parecido a un juguete virtual, le dio un encanto especial y lo hizo destacar entre tantas opciones de productividad.Pokémon TCG Pocket obtuvo el premio al mejor juego gracias a una adaptación que captura la emoción de abrir sobres, coleccionar cartas y jugar partidas rápidas. Google también premió experiencias pensadas para pantallas diferentes. Luminar se llevó el premio como mejor app en varios dispositivos por facilitar la edición fotográfica con modelos de inteligencia artificial. Y Disney Speedstorm ganó como juego multiplataforma con carreras rápidas y controles ajustados a móviles, tabletas y computadores.El mundo de las aplicaciones cambia muy rápido. Las tiendas están llenas de herramientas que prometen ayudarte a estudiar, trabajar o crear contenido. Esto pone mucha presión en desarrolladores independientes que deben competir con equipos más grandes. Destacar en medio de tantas opciones es difícil, y por eso la lista anual de Google Play se convierte en un punto de referencia para quienes buscan reconocimiento y estabilidad en un mercado saturado.En los juegos ocurre algo parecido. Cada año aparecen títulos nuevos que intentan atraer la atención con gráficos llamativos o mecánicas novedosas. Pero muchos desaparecen a los pocos meses. Las categorías adicionales, como juegos en varios dispositivos, muestran la necesidad de ofrecer experiencias que se adapten a pantallas diferentes. Esto implica más trabajo técnico y obliga a los estudios a pensar en compatibilidad, rendimiento y continuidad de la experiencia.El mensaje más fuerte no está en los premios, sino en el contraste. Focus Friend ganó en un año dominado por asistentes, editores inteligentes y herramientas para producir contenido. Este resultado muestra que muchas personas buscan tranquilidad digital. El encanto del pequeño personaje que te acompaña es un recordatorio de que una app puede ser útil sin necesidad de tener cientos de funciones. La tienda premió una experiencia cálida que ayuda a reducir distracciones en un mundo saturado de notificaciones.En contraste, Pokémon TCG Pocket representa la emoción del entretenimiento clásico llevado al teléfono. Combina nostalgia, competencia y coleccionismo. La adaptación digital funciona bien porque respeta el espíritu del juego original y aprovecha efectos visuales modernos. Al mismo tiempo, los premios multiplataforma reflejan el camino que sigue la industria: experiencias que funcionan igual sin importar el dispositivo. Google intenta mostrar que hay espacio para herramientas simples y para propuestas avanzadas que conectan pantallas.En la lista completa aparecen categorías variadas que muestran la diversidad del ecosistema Android. Entre las apps destacadas están Edits, creada por Instagram para jugar con fotos; Wiser, que resume audiolibros en quince minutos; y ABCmouse 2, diseñada para enseñar a niños pequeños. También figuran aplicaciones para relojes, carros y gafas de realidad mixta, como Calm y Goodnotes, que ya funcionan bien en pantallas más grandes.En juegos, además de los ganadores principales, Google mencionó títulos independientes como Chants of Sennaar y éxitos continuos como Wuthering Waves. La lista incluye también juegos ideales para sesiones cortas, como Candy Crush Solitaire, y propuestas diseñadas para Google Play en PC. Google publicó versiones locales de estas selecciones para países como Japón, Corea, India e Indonesia, y se espera que más regiones reciban sus propias listas en los próximos meses.Google Play eligió a Focus Friend como la mejor app del año y a Pokémon TCG Pocket como el mejor juego. La lista mezcla bienestar digital, nostalgia y tecnología avanzada en varios dispositivos. Piensa cuáles apps te acompañaron este año y si necesitas más equilibrio entre concentración y diversión.

    Así funciona X Chat, el nuevo WhatsApp de Elon Musk

    Play Episode Listen Later Nov 18, 2025 7:08 Transcription Available


    Así funciona X Chat, el nuevo WhatsApp de Elon MuskLos nuevos mensajes cifrados de X prometen privacidad total, llamadas y archivos sin publicidad ni rastreo  Por Félix Riaño @LocutorCo  X, la red antes conocida como Twitter, presenta X Chat: un sistema de mensajería con cifrado de extremo a extremo, videollamadas, mensajes que desaparecen y bloqueo de capturas de pantalla. Elon Musk quiere convertir X en la “app para todo”, como el WeChat de China, empezando por este nuevo chat que busca competir con WhatsApp y Signal.  Sigue escuchando Flash Diario en Spotify y cuéntame qué piensas sobre esta nueva apuesta de Elon Musk por la mensajería segura.X Chat ya está disponible en iPhone y en la web, y pronto va a llegar a Android. Es la nueva función de mensajería de X, creada para ofrecer conversaciones cifradas y seguras. El servicio incluye llamadas de voz y video, envío de archivos de cualquier tipo, y la posibilidad de editar o borrar mensajes. También permite configurar mensajes que desaparecen automáticamente.La idea de Elon Musk es que X deje de ser solo una red social para transformarse en una herramienta completa de comunicación. Pero ¿qué tan segura y práctica es esta nueva opción frente a las aplicaciones más conocidas?  Muchos se preguntan si realmente podemos confiar en su cifrado  El cifrado de extremo a extremo, conocido como E2EE, significa que solo tú y la persona con quien hablas pueden leer los mensajes. Ni siquiera la empresa que ofrece el servicio puede verlos. X asegura que X Chat usa este sistema tanto para textos como para archivos, prometiendo privacidad sin anuncios ni rastreo.A diferencia del antiguo sistema de mensajes directos de Twitter, ahora los datos viajan en un canal encriptado. Además, X Chat permite bloquear las capturas de pantalla o recibir una notificación si alguien las toma. También ofrece mensajes que se autodestruyen en un tiempo definido por el usuario. Y todo esto funciona en una sola bandeja junto con los mensajes antiguos, para no perder el historial.  El problema es que el cifrado no protege todo. X reconoce que la llamada metadata —los datos sobre quién envía, a quién, y cuándo— no está protegida. Y ese tipo de información puede ser muy reveladora. Por eso algunos expertos dudan de la seguridad total de X Chat.Otro punto en discusión es la confianza. Aunque Elon Musk afirma que el sistema está inspirado en la seguridad de Bitcoin y en el lenguaje Rust, algunos analistas recuerdan que X ya tuvo que pausar el cifrado en mayo de este año por fallas. También señalan que la compañía planea ofrecer funciones avanzadas solo a usuarios Premium, lo que deja el servicio básico con menos herramientas de protección.  Pese a las críticas, X Chat representa un paso técnico importante. Al fin X tiene un sistema de mensajería moderno y cifrado, con llamadas y archivos, en un entorno libre de anuncios. Su desarrollo en Rust ayuda a prevenir errores comunes en la memoria y a mejorar la velocidad del sistema.Aunque la protección no es tan completa como la de Signal o Wire, la experiencia es más fluida y el cifrado ahora cubre también los grupos y los archivos multimedia. Además, la integración con la plataforma permite comunicarse sin necesidad de número de teléfono, algo que muchos usuarios agradecen.  El cifrado de extremo a extremo se popularizó con WhatsApp en 2016, pero fue creado antes por aplicaciones como Signal y Telegram. Hoy se usa para proteger la comunicación en apps de mensajería, videollamadas e incluso en servicios de correo. En este sistema, los mensajes se codifican con una llave que solo los dispositivos del emisor y el receptor pueden descifrar.WeChat, el modelo que Musk quiere replicar, supera los 1.400 millones de usuarios en China. En Occidente, WhatsApp tiene más de 3.000 millones de usuarios activos. Con X Chat, Musk busca unir mensajería, pagos y redes sociales en un solo lugar. Además, ya se menciona el proyecto X Money, que podría permitir enviar dinero y hacer compras desde la misma aplicación.  Cada día, desde Flash Diario, te acompañamos con noticias de tecnología, ciencia y entretenimiento digital. Lo hacemos para ayudarte a entender cómo estos avances pueden mejorar tu vida y tu manera de ver el mundo.Gracias a ti, que escuchas todos los días, y también a ti, que llegas por primera vez, por hacer parte de esta comunidad curiosa y constructiva. Nuestro objetivo es que te mantengas bien informado, con contenido claro, útil y positivo.  X Chat llega con cifrado, videollamadas y mensajes que desaparecen, buscando competir con WhatsApp y Signal. Aunque aún tiene puntos por mejorar, marca un cambio importante en X.Sigue escuchando Flash Diario en Spotify y cuéntame qué piensas sobre esta nueva apuesta de Elon Musk por la mensajería segura.  X Chat llega a X con cifrado, mensajes que desaparecen y videollamadas. Elon Musk quiere competir contra WhatsApp y Signal.  

    La Luna tenía “óxido” escondido y China acaba de descubrirlo en muestras de Chang'e-6

    Play Episode Listen Later Nov 17, 2025 7:44 Transcription Available


    Durante décadas se creyó que la Luna no podía tener minerales oxidados. No había manera: sin agua, sin aire y con un ambiente lleno de radiación solar, el hierro debería permanecer “crudo”, sin cambiar de color ni reaccionar con nada.Pero eso acaba de cambiar.

    Spotify mezcla y resume

    Play Episode Listen Later Nov 14, 2025 7:01 Transcription Available


    Spotify lanza dos funciones nuevas: resumen con inteligencia artificial para audiolibros y modo aleatorio mejorado Por Félix Riaño @LocutorCo  Escucha este episodio completo en Flash Diario.Spotify acaba de presentar dos novedades pensadas para quienes escuchan música o audiolibros en su app. La primera es “Recaps”, un resumen con inteligencia artificial que te pone al día en cualquier libro que hayas dejado a medias. La segunda es un nuevo modo “Aleatorio con menos repeticiones”, que promete variar más las canciones en tus listas de reproducción. Ambas funciones ya están disponibles para usuarios Premium en iPhone y están siendo probadas en inglés. ¿Qué tan distintas son estas mejoras y cómo van a cambiar la forma en que escuchas Spotify?Lo curioso es que ambas funciones resuelven problemas muy antiguosDesde hace años, los oyentes de audiolibros en Spotify pedían una forma de recordar dónde habían quedado. “Recaps” responde justo a eso. Esta herramienta genera un resumen de audio, creado con inteligencia artificial, que se activa después de escuchar entre 15 y 20 minutos de un libro. Cuando vuelves, solo tocas el botón “Recap” y escuchas un resumen sin spoilers, narrado con una voz natural. Es como un “anteriormente en…” de las series, pero para libros. Así puedes retomar tu historia sin tener que retroceder ni perder tiempo buscando el punto exacto donde te quedaste.Muchos usuarios abandonan los audiolibros porque los dejan a medias y luego olvidan lo que pasó. Spotify lo sabe, y por eso desarrolló esta función con ayuda de grandes editoriales como Penguin Random House, HarperCollins y Hachette. Desde que compró la plataforma Findaway en 2021, la empresa ha construido un catálogo de más de 500 000 títulos y paga cientos de millones de dólares a las editoriales cada año. Con Recaps, Spotify busca que más gente termine los libros que empieza, sin reemplazar la narración original ni usar esos contenidos para entrenar modelos de inteligencia artificial. Su director de investigación, Paul Bennett, aclaró que los resúmenes no modifican ni imitan la voz de los narradores.La otra novedad de Spotify es para quienes escuchan música. Desde hace años, los usuarios se quejaban de que el modo aleatorio no era tan aleatorio. Decían que el algoritmo repetía artistas o canciones muy seguido. Spotify escuchó y lanzó dos tipos de “shuffle”: el nuevo “Menos repeticiones” y el “Estándar”. El primero será el modo predeterminado e intenta mantener la frescura mezclando los temas con más variedad, mientras que el segundo usa un generador matemático llamado Mersenne Twister para crear un orden completamente al azar. En los ajustes de reproducción podrás elegir el que prefieras. Spotify explicó que el nuevo “Aleatorio con menos repeticiones” genera cientos de combinaciones posibles de una lista, las evalúa y elige la que más variedad ofrece. Según su directora de personalización, Lauren Saunders, “la aleatoriedad pura puede ser frustrante, porque a veces se agrupan canciones parecidas”. La idea es que el oyente sienta sorpresa, pero sin que se repitan los mismos artistas. Además, la empresa añadió funciones como “Snooze” para pausar recomendaciones, y Wrapped-style para ver tus estadísticas musicales cuando quieras. Con estas actualizaciones, Spotify quiere que escuchar música o audiolibros sea más personal y menos repetitivo, apostando al control del usuario y a una experiencia más humana.  Spotify está usando inteligencia artificial y nuevos algoritmos para hacer que escuchar música o audiolibros sea más fácil, variado y entretenido. “Recaps” te resume el libro que dejaste a medias, y el nuevo modo aleatorio refresca tus listas. Cuéntame, ¿cuál vas a probar primero?  Bibliografía:CNETThe VergeTechCrunchMashableSpotify NewsroomThe TabConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

    El anillo que controla las gafas

    Play Episode Listen Later Nov 13, 2025 8:38 Transcription Available


    Escucha este y otros episodios en Flash Diario en Spotify.Las nuevas gafas inteligentes Even Realities G2 se controlan con un anillo que también mide tu salud, y buscan ser la alternativa elegante a las Ray-Ban de Meta  Por Félix Riaño @LocutorCoLas Even Realities G2 prometen algo que suena raro pero brillante: unas gafas con pantalla, sin cámaras ni altavoces, que se controlan con un anillo llamado R1.Meta, Google, Samsung y hasta Apple quieren poner pantallas frente a nuestros ojos. Pero Even Realities propone hacerlo sin que nadie note que llevas tecnología encima.Hoy vamos a descubrir cómo estas gafas logran proyectar texto en tus lentes, traducir conversaciones en tiempo real y hasta mostrar un teleprompter, todo sin romper la privacidad.Y sí, con un anillo en el dedo que funciona como mando, y que además mide tus pasos, tu ritmo cardíaco y tu sueño.Even Realities presentó las nuevas G2, una evolución ligera y minimalista de sus primeras gafas inteligentes. Cuestan 599 dólares, pesan solo 36 gramos y tienen una pantalla un 75 % más grande que la versión anterior. A diferencia de las Ray-Ban de Meta, no tienen cámaras ni altavoces, lo que evita el problema de grabar sin consentimiento y mejora la comodidad.El nuevo anillo R1, de 249 dólares, permite controlar las funciones del display con gestos del pulgar, sin necesidad de tocar las gafas. Además, incluye sensores que registran pasos, pulso y sueño.Estas gafas con realidad aumentada proyectan texto, traducciones, notificaciones o un teleprompter directamente sobre los lentes. La empresa promete dos días de batería y hasta siete recargas extra en el estuche.¿Podrán ser el primer par de gafas inteligentes que la gente quiera usar todos los días?Parece magia, pero en realidad es óptica, inteligencia artificial… y una buena estrategia de diseño.Even Realities nació con una idea clara: hacer gafas inteligentes que no espanten a nadie. Nada de cámaras grabando a desconocidos ni de altavoces transmitiendo sonido al aire.Su primer modelo, el G1, fue una prueba. El G2 llega con todo lo que aprendieron de ese experimento: lentes más delgados, más ligeros y con pantallas micro-LED de alta definición integradas en ambos cristales.La tecnología que usan se llama HAO 2.0 —Holistic Adaptive Optics—, un sistema de proyección dual que muestra texto verde flotante, como un pequeño “HUD”, una interfaz de realidad aumentada que no molesta a la vista.Los materiales son una mezcla de titanio y aleación de magnesio. Eso las hace resistentes y, sobre todo, cómodas. La forma puede ser redonda o rectangular, y hay tres colores: gris, marrón o verde. También son resistentes al agua y al polvo con certificación IP67.El gran reto de las gafas inteligentes ha sido siempre el mismo: hacer que la gente quiera usarlas.Las Google Glass fracasaron por su aspecto. Las Ray-Ban de Meta inquietan por sus cámaras. Y otras marcas han apostado por proyectores enormes o diseños demasiado futuristas.Even Realities optó por el camino opuesto: unas gafas que parecen gafas normales. Su apuesta se llama quiet tech, o “tecnología silenciosa”: dispositivos que no llaman la atención y que se integran en la vida cotidiana.Pero hay otro desafío: la interacción. Si no hay cámara, ni altavoz, ni pantalla táctil, ¿cómo se manejan?Ahí entra el R1, un anillo de acero inoxidable con recubrimiento cerámico que se convierte en un control invisible. Con un roce del pulgar se puede navegar por menús, pasar una diapositiva, activar traducción simultánea o controlar el teleprompter.El resultado es un conjunto que se siente natural. El G2 muestra la hora, el clima, tus recordatorios y los titulares del día en un panel flotante frente a tus ojos. También traduce conversaciones en 29 idiomas y ofrece indicaciones de navegación paso a paso.Si activas el modo Conversate, la inteligencia artificial Even AI escucha la charla y te sugiere preguntas, genera subtítulos o resume lo que se habló. Todo sin grabar audio, solo transcripción.El anillo no solo sirve de mando: también mide frecuencia cardíaca, oxígeno en sangre y calidad del sueño. Aunque no alcanza la precisión de un reloj deportivo, cumple como complemento.La batería dura dos días, y el estuche ofrece siete cargas completas. El R1 puede durar hasta cuatro.Lo más interesante es su enfoque en la privacidad y la comodidad. No te espía, no graba a nadie, y pesa menos que muchos anteojos comunes.Durante la presentación, el director ejecutivo Will Wang explicó que su meta es “ser el Tesla y el OpenAI de las gafas inteligentes”. La empresa distribuye ya su primer modelo, el G1, en más de 350 tiendas de óptica de lujo.El nuevo modelo G2 amplía el rango de prescripciones: desde –12 hasta +12 dioptrías, lo que permite que casi cualquier persona las use.La interfaz permite leer noticias, revisar listas, controlar el calendario y hasta ensayar discursos con el modo Teleprompter, una función que ya usó el creador de Oculus, Palmer Luckey, en una charla TED.Los expertos coinciden en que el hardware es sobresaliente, pero el software todavía necesita pulirse. Algunos probadores encontraron fallos en la app beta y datos de salud que no se sincronizaban bien. Even Realities promete actualizaciones y una tienda llamada Even Hub, donde desarrolladores podrán crear sus propias aplicaciones para las gafas.El lanzamiento global ya está en marcha: tanto el G2 como el anillo R1 están a la venta desde noviembre con un descuento del 50 % en accesorios para los primeros compradores.Las Even G2 son un paso real hacia unas gafas inteligentes que parecen normales.Ofrecen pantalla, IA y control por anillo sin invadir la privacidad. Falta que el software madure, pero la dirección es clara: la tecnología invisible ya está aquí.¿Tú te pondrías unas gafas que muestran texto sin que nadie lo note? Cuéntamelo y escucha este y otros episodios en Flash Diario en Spotify.Las gafas Even G2 proyectan texto en tus lentes y se controlan con un anillo inteligente que mide tu salud.

    Tu VPN puede espiarte, advierte Google

    Play Episode Listen Later Nov 12, 2025 7:09 Transcription Available


    Google lanza una alerta global sobre aplicaciones VPN falsas que roban datos personales y contraseñasPor Félix Riaño @LocutorCoTú puedes ampliar esta información y escuchar más consejos de ciberseguridad siguiendo el pódcast Flash Diario en Spotify.Google advierte que miles de aplicaciones falsas se hacen pasar por redes privadas virtuales —los llamados VPN— para infectar teléfonos y computadores.Estas apps maliciosas pueden robar contraseñas, historiales de navegación, mensajes privados, claves bancarias y hasta billeteras de criptomonedas.El aviso llega justo cuando millones de personas están descargando VPN para saltarse las nuevas leyes de restricción de contenido en Reino Unido y Estados Unidos.Google confirmó que hay una oleada de aplicaciones fraudulentas disfrazadas de VPN legítimos, distribuidas en Android, iPhone y computadoras.Los hackers las usan para espiar a los usuarios con publicidad engañosa, ofertas falsas y permisos abusivos.El aumento del riesgo coincide con una explosión mundial de descargas de VPN: solo en Reino Unido, el uso creció más de 1.400 % desde que entró en vigor la ley que obliga a verificar la edad para ver contenido adulto.La advertencia de Google busca evitar que quienes buscan privacidad terminen perdiéndola por completo.El problema: muchos VPN que prometen seguridad son trampas.Un VPN —una red privada virtual— crea un túnel cifrado entre tu dispositivo y el servidor al que te conectas.Sirve para proteger tus datos en redes públicas y también para simular que estás en otro país.Por eso se volvió popular para acceder a servicios bloqueados por ubicación o por edad.Pero los estafadores encontraron ahí una oportunidad: clonar marcas conocidas o crear apps falsas que parecen seguras, pero envían tus datos a servidores desconocidos, muchos de ellos en China o Rusia.Google confirmó que algunas de esas aplicaciones fueron detectadas incluso dentro de tiendas oficiales, con reseñas falsas y nombres muy parecidos a los originales.El riesgo no se limita a los usuarios que buscan privacidad: afecta también a empresas y a estudiantes.Entre las amenazas más comunes están los troyanos bancarios, los ladrones de contraseñas y los accesos remotos ocultosque permiten controlar el teléfono a distancia.En los últimos meses, analistas de seguridad descubrieron campañas en las que se usaban facturas falsas de VPN o anuncios con contenido sexual para engañar a los usuarios.Una vez instalada la app, el malware puede copiar tus chats, tus datos financieros y hasta tus correos corporativos.Google recomienda activar “Play Protect” en Android, mantener siempre actualizado el sistema operativo y desconfiar de cualquier VPN gratuito o que pida acceso a tus contactos, fotos o mensajes.Las cifras muestran que la mayoría de las víctimas usan servicios gratuitos o descargados fuera de las tiendas oficiales.Y aunque pagar por un VPN no garantiza seguridad total, reduce mucho los riesgos.Expertos de TechRadar y Proton recomiendan usar marcas auditadas y transparentes como Proton VPN, NordVPN, Mullvad o PrivadoVPN, que no guardan registros de uso y ofrecen cifrado real.Google insiste en que los usuarios deben revisar el icono de verificación VPN en Google Play y evitar las descargas directas desde enlaces compartidos o redes sociales.La empresa también sugiere evitar el uso de redes Wi-Fi públicas, especialmente en aeropuertos, cafés y hoteles, donde es más fácil interceptar conexiones.La alerta llega en medio de un cambio global en la regulación de internet.Varios estados de EE. UU. y el Reino Unido están imponiendo bloqueos de páginas para adultos y sistemas de verificación de edad.Eso disparó el uso de VPN y con él, las oportunidades para el cibercrimen.Solo en la primera mitad de 2025 hubo más de 10 millones de descargas de VPN en el Reino Unido, según TechRadar.Y muchas de esas apps se comunicaban con servidores en Asia y Europa del Este.Google advierte que el peligro aumenta cuando se combina con redes Wi-Fi públicas sin cifrado: esos puntos de acceso abiertos permiten ataques del tipo “man-in-the-middle”, en los que un intruso puede interceptar o alterar los datos enviados por el usuario.Por eso la nueva recomendación de seguridad de Google es clara: usa un VPN legítimo, o ninguno.Los VPN pueden proteger tu privacidad, pero también pueden destruirla si instalas uno falso.Google pide usar solo aplicaciones verificadas, desconfiar de las gratuitas y evitar redes Wi-Fi abiertas.Google alerta: miles de VPN falsas roban datos y contraseñas. Usa solo apps verificadas y evita redes Wi-Fi públicas.

    Samsung se une a iFit

    Play Episode Listen Later Nov 11, 2025 6:55 Transcription Available


    Samsung y iFit traen entrenamientos guiados por expertos al reloj Galaxy Watch y la app Samsung HealthPor Félix Riaño @LocutorCoSamsung anunció su alianza con la plataforma de ejercicio iFit para integrar cientos de rutinas guiadas en la app Samsung Health y en los relojes Galaxy Watch. La colaboración busca ofrecer una experiencia de entrenamiento más completa y personalizada, conectando los relojes con caminadoras y bicicletas compatibles de NordicTrack y ProForm. Además, quienes compren un nuevo Galaxy Watch 8 o Ultra van a poder acceder a seis meses gratis de entrenamientos premium con instructores de todo el mundo.Cuéntanos si te gustaría probarlo y sigue el pódcast Flash Diario para conocer más innovaciones en tecnología y salud.Samsung Health, la aplicación de bienestar que viene en los móviles y relojes Galaxy, ahora integra rutinas en video creadas por entrenadores de iFit. Esto convierte al ecosistema de Samsung en una alternativa directa frente a Apple Fitness+ y Fitbit Premium, pero con un toque más abierto. Cualquier persona podrá ver un video gratis al mes de cada una de las siete categorías: yoga, pilates, fuerza, recuperación, mindfulness, barre y entrenamiento de alta intensidad.Los usuarios que quieran más acceso pueden suscribirse a iFit por diez dólares al mes o cien al año.Además, quienes compren un Galaxy Watch 8, 8 Classic o Ultra recibirán seis meses gratis del servicio.Pero los antiguos dueños del Galaxy Watch no reciben nada.iFit es una plataforma global de entrenamiento usada en miles de gimnasios y casas. Sus máquinas NordicTrack y ProForm ya mostraban métricas como ritmo cardíaco o calorías, pero ahora esos datos se conectarán directamente con los relojes Galaxy Watch, en tiempo real. Eso significa que mientras una persona corre o pedalea, podrá ver en su muñeca los mismos valores que en la pantalla del equipo.Samsung busca con esto cerrar una brecha frente a Apple, que desde hace años ofrece contenido similar con Apple Fitness+. La novedad es que Samsung no crea las clases, sino que se asocia con una marca experta en fitness digital.La noticia entusiasma a quienes entrenan con dispositivos Galaxy, pero hay una queja que no pasó desapercibida: los actuales dueños del Galaxy Watch 8 no recibirán el periodo gratuito de iFit.Solo los nuevos compradores podrán aprovechar las pruebas de seis meses. Esto ha generado descontento en foros y redes sociales, donde muchos usuarios sienten que se premia al comprador nuevo y no al leal.Por otra parte, la integración aún no llega a todos los países. Según iFit, por ahora estará disponible en Australia, Canadá, Francia, Alemania, India, Italia, Nueva Zelanda, España, Reino Unido y Estados Unidos. En América Latina habrá que esperar la siguiente fase de expansión.El objetivo de esta alianza es competir con los servicios de entrenamiento más completos del mercado. Fitbit prepara su propio relanzamiento con un entrenador personal impulsado por inteligencia artificial Gemini, y Apple mantiene su ventaja con miles de clases. Samsung decidió ir por el camino práctico: asociarse con una plataforma que ya tiene miles de videos y una comunidad global.Además, en los últimos meses, Samsung insinuó que planea lanzar su propia suscripción “Samsung Health+” en 2026, que integraría coaching avanzado con Galaxy AI. Si eso ocurre, la alianza con iFit podría convertirse en la base de ese servicio más inteligente y personalizadoiFit, con sede en Utah, Estados Unidos, lleva más de 20 años desarrollando programas de entrenamiento conectados. Su tecnología se usa en máquinas de gimnasios profesionales y en equipos domésticos de alta gama. La idea de integrar su biblioteca con Samsung Health permite que más personas accedan a entrenamientos guiados sin tener que comprar un aparato costoso.En paralelo, Samsung amplía el atractivo de sus relojes al ofrecer funciones que antes solo tenía Apple Watch, como ver los datos del entrenamiento directamente sincronizados con las máquinas.La tarifa mensual de iFit es de 10 dólares o 100 dólares al año, pero quienes adquieran un dispositivo Galaxy nuevo podrán probarlo gratis hasta seis meses, según el modelo comprado.Samsung e iFit unieron fuerzas para llevar entrenamientos profesionales a tu muñeca y a la app Samsung Health. La alianza abre un nuevo frente en el mundo del fitness digital.Samsung se asoció con iFit para llevar entrenamientos guiados y conexión con máquinas de gimnasio a los relojes Galaxy Watch.Bibliografía:Tom's GuideAndroid CentralEngadgetConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

    PlayStation Portal: 2.800 juegos en la nube sin consola PS5

    Play Episode Listen Later Nov 7, 2025 7:06 Transcription Available


    PlayStation gana terreno al permitir jugar más de 2.800 juegos en la nube sin necesidad de tener una consola PS5.  Por Félix Riaño @LocutorCo  Escucha el Flash Diario en SpotifySony actualizó el PlayStation Portal para que sus usuarios jueguen directamente desde la nube, sin una consola. Con esta jugada, PlayStation supera a Xbox en su propio terreno: el juego en streaming. Ahora, los suscriptores de PlayStation Plus Premium pueden acceder a miles de títulos en cualquier lugar con conexión Wi-Fi.  PlayStation anunció la llegada oficial del juego en la nube a su dispositivo portátil PlayStation Portal. Desde este 5 de noviembre, los jugadores pueden disfrutar de miles de títulos de PS5 sin tener la consola. Entre ellos están Astro Bot, Grand Theft Auto V, Resident Evil 4 y Final Fantasy VII Rebirth. Esta función, exclusiva del plan Premium de PlayStation Plus, ofrece transmisión directa desde los servidores de Sony y un catálogo superior al de Xbox Cloud Gaming. ¿Está PlayStation preparándose para dominar también el juego en PC y la nube?  ¿Xbox ya no es el rey del juego en la nube? Durante años, Sony y Microsoft compitieron por tener la mejor consola. PlayStation 5 logró vender más de 50 millones de unidades, mientras Xbox se enfocó en servicios como Game Pass Ultimate y su plataforma en la nube. Pero ahora, la historia cambia. Con esta actualización, el PlayStation Portal se convierte en un dispositivo realmente independiente: permite jugar sin consola, desde cualquier lugar con buena conexión. La interfaz fue rediseñada y ahora incluye tres secciones: “Remote Play”, “Cloud Streaming” y “Buscar”. Además, añade sonido 3D, compras dentro del juego y opciones de accesibilidad.  Este avance pone presión sobre Xbox. Hasta ahora, Microsoft mantenía la ventaja con Xbox Cloud Gaming y su programa Play Anywhere, que permite comprar un juego una sola vez y usarlo tanto en consola como en PC. Pero las filtraciones indican que Sony también prepara un sistema de “Cross Buy”, es decir, una compra única entre PS5 y PC. Si eso se confirma, PlayStation igualará e incluso superará la estrategia de Xbox. La diferencia principal está en el catálogo: la plataforma de Sony cuenta con más de 2.800 juegos disponibles para streaming, mientras que Xbox ofrece alrededor de 2.100.  El nuevo enfoque de Sony parece claro: ampliar su ecosistema sin depender del hardware. El PlayStation Portal, que costaba cerca de 200 dólares y antes servía solo como accesorio del PS5, ahora se convierte en una consola portátil para jugar títulos de última generación en cualquier parte. Incluso permite recibir invitaciones multijugador y hacer compras dentro del juego sin salir de la sesión. Aunque Xbox sigue ofreciendo ventajas como Game Pass Ultimate y compatibilidad total con Windows, su estrategia de eliminar exclusividades podría jugarle en contra. Mientras tanto, Sony gana terreno con funciones que acercan la experiencia del PS5 a cualquier pantalla.  El éxito del Portal sorprendió a Sony: fue el accesorio de videojuegos más vendido en Reino Unido en julio de 2024, con cerca de dos millones de unidades. Con la llegada del streaming oficial, el número de usuarios podría crecer mucho más. Este cambio también prepara el terreno para la próxima generación: se rumorea que el futuro PlayStation 6 tendrá dos versiones, una de sobremesa y otra portátil, ambas listas para streaming. En cambio, Microsoft planea integrar su siguiente Xbox con Windows y Steam, lo que podría fragmentar su catálogo. El mercado de los videojuegos parece entrar en una nueva fase donde el hardware ya no es lo más importante.  PlayStation Portal ya puede jugar miles de títulos de PS5 sin consola y supera a Xbox en la nube. ¿Estamos ante un nuevo futuro sin hardware? Comenta tu opinión y sigue escuchando Flash Diario en Spotify.  PlayStation Portal ya permite jugar más de 2.800 títulos en la nube sin consola. Xbox pierde su ventaja en streaming.  

    El cometa azul que aceleró solo- nuevas pruebas de 3I ATLAS

    Play Episode Listen Later Nov 6, 2025 11:52 Transcription Available


    El visitante vuelve: El cometa interestelar 3I/ATLAS reaparece con datos nuevos y un cambio de velocidad que intriga a la NASA.  Por Félix Riaño @LocutorCo  Escucha todos los días el Flash DiarioDespués de pasar oculto tras el Sol durante octubre, el visitante interestelar 3I/ATLAS volvió a escena con novedades que están desconcertando a la comunidad científica. NASA ha confirmado que el objeto cambió su velocidad y trayectoria de forma que no encaja con las fuerzas conocidas. Al mismo tiempo, su color se tornó azul brillante y su brillo aumentó más de lo esperado. En este episodio vamos a repasar qué se ha descubierto desde su paso por el perihelio, qué está analizando la NASA y cuándo podremos volver a observarlo desde la Tierra.  El 29 de octubre, el cometa 3I/ATLAS alcanzó su punto más cercano al Sol. Los observatorios que siguieron su paso registraron un aumento repentino de luminosidad y un cambio de color: de verde a azul. Pocos días después, NASA confirmó algo más extraño aún: una aceleración no gravitacional, un impulso que lo movió fuera de su ruta calculada.Los científicos del Laboratorio de Propulsión a Chorro publicaron que el objeto avanza ahora a unos 245 000 kilómetros por hora, un incremento difícil de justificar solo con la acción del calor solar. Harvard, la Agencia Espacial Europea y el Instituto Coreano de Astronomía están revisando la información más reciente mientras el cometa vuelve a hacerse visible antes de continuar su viaje fuera del sistema solar.  Volvió… y ahora se comporta de forma imposible.  Las nuevas observaciones provienen de telescopios en Chile, Sudáfrica, Australia y del James Webb Space Telescope, que captó un halo azul a su alrededor. El análisis espectral indica una proporción inusual de dióxido de carbono ocho veces superior al agua, y presencia de níquel metálico en niveles que no existen en cometas del sistema solar.La luz de 3I/ATLAS muestra además una polarización negativa extrema, un patrón de vibración que no se había visto antes. Para el astrónomo coreano Moon Hong-kyu, esto sugiere que el cometa se formó en una región de temperatura extremadamente baja, muy diferente de cualquier entorno cercano al Sol.Las observaciones también confirman que su núcleo mide unos once kilómetros y que la masa ronda los 33 000 millones de toneladas, lo que lo convierte en el objeto interestelar más grande jamás detectado.  El comportamiento de 3I/ATLAS ha abierto un debate científico y político. La congresista estadounidense Anna Paulina Luna pidió a la NASA publicar las imágenes tomadas por la cámara HiRISE del orbitador de Marte y por el rover Perseverance, captadas cuando el cometa pasó a unos 30 millones de kilómetros del planeta rojo.Al mismo tiempo, Avi Loeb, físico de Harvard, enumeró diez anomalías en su trayectoria, entre ellas la aceleración no explicada, la luz polarizada, el cambio de color y una coincidencia angular con la dirección del famoso “Wow! Signal” de 1977. Según sus cálculos, la probabilidad de que todos estos fenómenos ocurran por azar es del 0,005 %.Mientras tanto, en internet proliferan teorías sin evidencia que lo describen como una nave o una esfera de materia oscura, pero la NASA insiste en que no hay señales de tecnología ni amenaza para la Tierra.  Lo comprobable es fascinante por sí mismo. La NASA detectó un aumento de velocidad justo después del perihelio, seguido de una ligera desviación en la órbita. El fenómeno podría deberse a chorros de gas que actuaron como un “empuje natural”, aunque no se ha observado la cantidad necesaria de material expulsado.El James Webb realizará en diciembre una nueva campaña de observación para buscar una nube de gas y polvo que confirme o descarte esa hipótesis. Si no la encuentra, los astrónomos tendrán que revisar las explicaciones actuales sobre la dinámica de los objetos interestelares.Por ahora, lo único seguro es que 3I/ATLAS sigue acelerando y alejándose, y que el 19 de diciembre estará en su punto más cercano a la Tierra: unos 270 millones de kilómetros.  El cometa se podrá observar desde el hemisferio norte en las madrugadas de diciembre con telescopios de al menos 30 centímetros de apertura. Los mejores momentos para buscarlo serán antes del amanecer, hacia el horizonte este.La Agencia Espacial Europea, a través de su misión JUICE, también tiene programadas observaciones entre el 2 y el 25 de noviembre desde la órbita de Júpiter. Se espera que esas imágenes, junto con las de NASA y KASI, permitan comparar la composición de 3I/ATLAS con los cometas Borisov y ʻOumuamua, los otros dos visitantes interestelares confirmados.Mientras tanto, los equipos científicos coreanos destacan que su alto contenido de níquel y la escasez de agua apuntan a un origen en una zona fría del disco grueso de la galaxia, quizá un remanente de material primitivo expulsado hace millones de años desde un sistema estelar extinguido.  3I/ATLAS sigue sorprendiendo a los astrónomos con cada nueva observación. Su cambio de velocidad y su color azul brillante plantean preguntas abiertas sobre cómo se comportan los objetos interestelares. El 19 de diciembre será su punto más cercano a la Tierra. Puedes seguir su recorrido en tiempo real en “Eyes on the Solar System” y en Flash Diario.  El cometa 3I/ATLAS reapareció con color azul y velocidad inexplicable. NASA lo estudia antes de su paso cercano en diciembre.  

    ¿Por fin apaga? Windows corrige un fallo histórico

    Play Episode Listen Later Nov 4, 2025 8:43 Transcription Available


    La actualización que no apagaba el computador finalmente tiene solución: Microsoft corrigió un error que existía desde hace más de una década: el botón “Actualizar y apagar” no apagaba el computador, sino que lo reiniciaba.  Por Félix Riaño @LocutorCo  Escucha más historias tecnológicas en Flash Diario.  Durante años, millones de personas en todo el mundo pulsaron “Actualizar y apagar” creyendo que su computador se apagaría después de instalar actualizaciones. Pero al volver al día siguiente, la pantalla de inicio seguía encendida o la batería del portátil se había agotado. Ese fallo, presente en Windows 10 y 11, acaba de ser reparado. Microsoft incluyó la corrección en la actualización opcional KB5067036, publicada el 28 de octubre de 2025, y anunció que llegará oficialmente a todos los equipos con el parche del 11 de noviembre. ¿Por qué tardaron tanto en arreglar un problema tan básico?  No era un error nuevo: duró más de diez años.  El fallo afectaba a las versiones modernas de Windows desde 2015, cuando apareció Windows 10. El problema se encontraba en el botón “Actualizar y apagar”, que debía instalar las actualizaciones pendientes y luego apagar el equipo. Pero en muchos casos, el sistema realizaba el proceso de actualización y al final reiniciaba el computador, como si el usuario hubiera elegido “Actualizar y reiniciar”.Según Windows Latest, este bug se mantuvo durante años sin reconocimiento oficial. Solo hasta ahora, con las versiones Windows 11 25H2 Build 26200.7019 y 24H2 Build 26100.7019, Microsoft confirmó haber solucionado la causa interna del fallo. En palabras de la empresa: “Se corrigió el problema subyacente que podía impedir que ‘Actualizar y apagar' realmente apagara el PC después de actualizarlo.”  Durante casi una década, este comportamiento frustró a millones de usuarios. En portátiles, podía ser más grave: la gente dejaba el equipo actualizando antes de dormir y al día siguiente encontraba la batería completamente agotada, o el ventilador encendido toda la noche.El problema no se debía a un mal clic del usuario. No era que las personas confundieran el botón “Actualizar y reiniciar” con el de “Actualizar y apagar”. Era un error del sistema operativo, probablemente una condición de carrera o un conflicto dentro del Windows Servicing Stack, el conjunto de procesos que gestiona las actualizaciones.El sistema necesitaba reiniciar en una fase llamada “servicio sin conexión” para reemplazar archivos bloqueados, pero luego olvidaba la instrucción final de apagado. Así, tras completar las actualizaciones, arrancaba de nuevo y quedaba encendido. Fue una de las quejas más frecuentes en foros de usuarios durante años.  Microsoft lanzó la solución en octubre de 2025 como parte de una actualización opcional, y la incluirá en el parche general del martes 11 de noviembre. La compañía no explicó públicamente la causa exacta del fallo, aunque expertos creen que se trataba de un error heredado desde Windows 10, posiblemente relacionado con el sistema de inicio rápido (Fast Startup).El parche KB5067036 garantiza que al elegir “Actualizar y apagar”, el equipo realmente se apague. Además, Microsoft confirmó un cambio en la manera de nombrar las actualizaciones: a partir de ahora, los nombres serán más simples y comprensibles, sin tantos códigos ni números confusos. Este cambio busca hacer más intuitivo el proceso para los usuarios comunes.Aunque este bug ya quedó atrás, todavía hay otros pendientes, como el error de controladores 0x80070103, que Microsoft reconoció y aún no ha podido resolver del todo.  El error de “Actualizar y apagar” fue uno de los más reportados en toda la historia de Windows, y demuestra lo complejo que puede ser el proceso de instalación de actualizaciones del sistema. Al instalar parches, Windows necesita reiniciar para completar tareas en una fase llamada offline servicing, en la que reemplaza archivos del sistema que no pueden modificarse mientras está activo.Durante esa fase, aparece la clásica pantalla azul con el mensaje “Trabajando en actualizaciones” y un porcentaje de progreso. Al final, el sistema debía apagarse, pero quedaba encendido. Según TechPowerUp, la instrucción de apagado se perdía por una “condición de carrera” o un conflicto de tiempo.Ahora, con la actualización 25H2, Microsoft afirma que el botón “Actualizar y apagar” finalmente hace lo que promete. La comunidad de usuarios lo celebra como un cierre simbólico a una década de frustraciones tecnológicas.  Después de más de diez años, Windows por fin apaga cuando debe hacerlo. El bug de “Actualizar y apagar” ya tiene solución definitiva en Windows 11. Si aún no has recibido la actualización, revisa Windows Update y descárgala. Escucha más historias tecnológicas en Flash Diario.  Microsoft arregló un error de más de 10 años: el botón “Actualizar y apagar” por fin apaga el computador.

    Un cometa milenario y una luna gigante coinciden esta semana

    Play Episode Listen Later Nov 3, 2025 7:59 Transcription Available


    La superluna de noviembre será la más grande y brillante de 2025, visible junto a lluvias de meteoros.  Por Félix Riaño @LocutorCo Sigue escuchando el pódcast Flash Diario en Spotify y comparte esta historia con quienes disfrutan del cielo nocturno.  El cielo de noviembre va a ofrecer uno de los espectáculos más impresionantes de todo 2025. La Luna alcanzará su punto más cercano a la Tierra y se verá hasta un 14 % más grande y un 30 % más luminosa. Coincidirá con lluvias de meteoros, el paso de un cometa visible a simple vista y un reciente destello verde en Moscú. Todo esto convierte este mes en una oportunidad única para mirar hacia arriba y redescubrir el cielo nocturno.  Pero el cielo de noviembre trae más sorpresas que la Luna.  El 5 de noviembre, la llamada Luna del Castor —o Beaver Moon— alcanzará su punto máximo de brillo. Este nombre proviene de las antiguas comunidades nativas de América del Norte, que observaban a los castores construir sus presas justo antes del invierno. Este año, ese mismo fenómeno natural será además la superluna más grande desde 2019, y la segunda de una serie de tres consecutivas que cerrarán 2025.A las 13:19 UTC del 5 de noviembre (8:19 a. m. en Colombia y México), la Luna estará a solo 357 000 kilómetros de la Tierra, lo que provocará que se vea mucho más grande cuando aparezca por el horizonte al atardecer. Quienes la observen desde un punto alto o junto al mar verán cómo su color se torna dorado y, al subir en el cielo, ilumina el paisaje con tanta intensidad que incluso proyectará sombras suaves sobre el suelo.  La belleza de esta superluna también tendrá un efecto curioso: hará más difícil observar las lluvias de meteoros Táuridas, activas justo en esos días. Esta doble cita astronómica —la Luna más brillante y una lluvia de estrellas que deja “bólidos” lentos y luminosos— generará un espectáculo desigual, porque el resplandor lunar puede opacar las luces fugaces del cielo. Aun así, los observadores más pacientes podrán distinguir algunas de esas bolas de fuego cruzando la noche.Al mismo tiempo, otro fenómeno ha capturado la atención mundial: una enorme bola verde que iluminó el cielo de Moscú el 27 de octubre, justo cuando las Táuridas y las Oriónidas alcanzaban su máxima actividad. Los astrónomos sospechan que se trató de un meteoro de gran tamaño que se desintegró al entrar en la atmósfera, liberando magnesio y níquel, responsables del color esmeralda. Esa coincidencia entre meteoros y la inminente superluna convierte este mes en una verdadera temporada de fuego y luz sobre la Tierra.Después de la superluna, el cielo seguirá activo. El 8 de noviembre aparecerá el cometa C/2025 A6 (Lemmon), visible incluso sin telescopio en zonas oscuras. Este visitante proviene del remoto Cinturón de Kuiper y no volverá a pasar cerca del Sol en más de mil años. A simple vista se verá como una mancha verdosa ascendente al oeste, poco después del atardecer.Una semana más tarde, entre el 11 y el 12 de noviembre, las Táuridas del norte ofrecerán nuevas estelas de fuego, y hacia el 17 y el 18 será el turno de las Leónidas, con meteoros más rápidos y brillantes. El 20 de noviembre la Luna se convertirá en una micro Luna nueva, casi invisible, y el cielo quedará oscuro otra vez, ideal para observar galaxias y planetas. El 21, Urano alcanzará su oposición, y el 29 la Luna se acercará a Saturno, cerrando el mes con un encuentro sereno de luces doradas en el firmamento.  Según la NASA, una superluna ocurre cuando la Luna llena coincide con el perigeo, su punto más cercano a la Tierra en su órbita elíptica. Puede parecer hasta un 14 % más grande y brillar un 30 % más que una Luna común. Este fenómeno fue descrito por primera vez en 1979 por el astrólogo Richard Nolle, y desde entonces se ha convertido en uno de los eventos astronómicos más esperados.La Luna del Castor también tiene una raíz ecológica y cultural. Marca la época en que los castores, tanto en América del Norte como en Europa, se preparan para el invierno. En el Reino Unido, su nombre coincide con la tradicional Bonfire Night, una noche de hogueras y fuegos artificiales que este año tendrá de fondo la superluna más brillante del año.Mientras tanto, el destello verde sobre Moscú recuerda que la Tierra atraviesa nubes de escombros cósmicos cada año. Esas lluvias de meteoros son restos de cometas antiguos. En este caso, las Táuridas provienen del cometa 2P/Encke, y las Oriónidas, del famoso cometa Halley. Todo esto forma parte del gran ciclo de materia y energía que mantiene viva la danza del cosmos sobre nuestras cabezas.  Noviembre llega con una superluna dorada, lluvias de meteoros y un cometa milenario. Es el momento ideal para mirar al cielo y recordar que la Tierra viaja acompañada por una coreografía de luces y sombras.La superluna más brillante del año llega este 5 de noviembre, junto a meteoros, un cometa y cielos espectaculares.  

    Diseño profesional sin pagar: la apuesta más atrevida de Canva

    Play Episode Listen Later Oct 31, 2025 10:17 Transcription Available


    Affinity gratis para siempre: Canva convierte Affinity en una suite profesional gratuita con inteligencia artificial.  Por Félix Riaño @LocutorCo  Escucha este y más episodios en Flash Diario en Spotify y compártelo con tus amigos creativos.  El mundo del diseño digital acaba de cambiar para siempre. Canva, la herramienta que millones usamos para crear presentaciones, logos o publicaciones, acaba de liberar su versión profesional: Affinity Studio. Es una aplicación completamente gratuita que combina edición de fotos, diseño vectorial y maquetación de documentos, todo en una sola interfaz. Y sí, usa inteligencia artificial para ayudarte a crear como un experto, sin pagar nada.  Affinity fue durante años el nombre de un trío de programas de pago que competían directamente con Adobe Photoshop, Illustrator e InDesign. Pero ahora Canva la ha transformado en Affinity Studio: una plataforma unificada y gratuita que pone herramientas de nivel profesional al alcance de cualquier persona.Esta nueva versión combina tres mundos en uno: imagen, texto y diseño vectorial. Todo funciona dentro del mismo espacio, sin tener que saltar entre aplicaciones distintas. Además, incluye inteligencia artificial integrada que puede ayudarte a recortar imágenes, mejorar colores, crear composiciones y hasta eliminar fondos en segundos. Canva promete que será “gratis para siempre” y que no hay versiones limitadas ni suscripciones ocultas.Un software gratuito desafía el dominio de Adobe en diseño  Durante más de una década, Affinity fue la gran alternativa profesional a las costosas licencias de Adobe. Su popularidad creció porque ofrecía calidad, precisión y rapidez sin depender de cuotas mensuales. En 2024, Canva compró Affinity por unos 380 millones de dólares, y hoy lanza Affinity Studio, una nueva era en la que cualquier persona puede descargarlo gratis y usarlo sin restricciones.El programa combina lo mejor de tres disciplinas creativas: fotografía, diseño gráfico y maquetación editorial. Todo sucede en un solo lienzo, con herramientas que se adaptan automáticamente al tipo de trabajo que estás haciendo. Su motor de rendimiento permite hacer zoom de hasta diez millones por ciento sin perder detalle y manejar miles de capas en tiempo real.  El anuncio sorprendió incluso a los diseñadores más experimentados. Muchos temían que Canva convirtiera Affinity en un servicio por suscripción o que limitara sus funciones gratuitas. Pero el mensaje fue contundente: Affinity Studio es libre, para siempre, y para todos.La estrategia tiene una lógica clara. Canva quiere ampliar su ecosistema profesional conectando Affinity con sus servicios colaborativos y con Canva AI Studio, su sistema de inteligencia artificial. Quienes paguen Canva Premium podrán usar herramientas avanzadas como Generative Fill, edición con IA y ampliación inteligente de imágenes, directamente desde la interfaz de Affinity.Eso abre un debate interesante: ¿cómo puede sostenerse un software tan potente sin cobrar? Canva responde que lo hace como una inversión para impulsar la creatividad global y atraer nuevos usuarios a su plataforma principal.  El movimiento de Canva ha sacudido a toda la industria. Mientras Adobe mantiene suscripciones obligatorias, Affinity se convierte en una opción libre, veloz y abierta. El nuevo Affinity Studio conserva la precisión de siempre, pero suma fluidez, colaboración y personalización. Cada usuario puede crear su propio “estudio” con herramientas adaptadas a su flujo de trabajo y compartir configuraciones con otros.La nueva identidad visual de Affinity refleja ese cambio. El logotipo, los colores y la tipografía fueron diseñados por equipos internacionales para simbolizar una comunidad creativa diversa. Los tonos carbón, papel y verde lima evocan materiales reales, mientras que la tipografía Affinity Serif combina elegancia con un toque rebelde.Y más allá del diseño, hay un mensaje potente: el acceso a las herramientas creativas ya no debe depender del dinero. Canva y Affinity apuestan por una era en la que cualquiera pueda crear, aprender y publicar sin barreras.  El nuevo Affinity Studio admite los principales formatos del sector: PSD, AI, PDF, SVG, TIFF e IDML, lo que permite abrir y guardar proyectos compatibles con Adobe y otras plataformas. También introduce un nuevo formato propio, .af, pensado para mantener la máxima calidad entre los distintos tipos de diseño.La inteligencia artificial integrada puede automatizar tareas repetitivas como recortes o ajustes de color, y lo hace directamente en tu dispositivo, sin enviar datos a la nube ni usarlos para entrenar modelos de IA.Canva también presentó su Canva Design Model, un modelo de inteligencia artificial que genera diseños editables, no imágenes planas. Además, añadió Ask Canva, un asistente que responde dudas dentro del proyecto y sugiere mejoras en tiempo real. Todo forma parte de su nuevo sistema operativo creativo, el Creative Operating System, que busca integrar diseño, marketing y publicación en un solo entorno.  Canva lanzó Affinity Studio, la nueva herramienta profesional gratuita que une foto, vector y maquetación con inteligencia artificial. Es rápida, libre y está disponible para todos.Descárgala, pruébala y cuéntanos tu experiencia.  Canva lanza Affinity Studio, un programa profesional gratis con inteligencia artificial. Foto, vector y maquetación en un solo lugar.  

    YouTube mejora tu televisor

    Play Episode Listen Later Oct 30, 2025 11:45 Transcription Available


    YouTube mejora tu televisor: ¡Videos viejos, imágenes nuevas! YouTube usará inteligencia artificial para mejorar la calidad visual de los videos antiguos y ofrecer compras interactivas desde la pantalla del televisor.  Por Félix Riaño @LocutorCo para el pódcast Flash Diario  YouTube acaba de anunciar una actualización enorme para quienes ven videos en el televisor. La plataforma va a usar inteligencia artificial para mejorar automáticamente la calidad de los videos grabados en baja resolución, entre 240p y 720p, subiéndolos a calidad HD, e incluso a 4K más adelante. Pero quienes crean contenido podrán decidir si quieren mantener sus videos tal como fueron subidos originalmente. Además, la app en televisores incluirá nuevas funciones para comprar productos con códigos QR y explorar los canales de una forma más atractiva y visual.YouTube presentó una serie de mejoras pensadas para la experiencia en pantallas grandes. La más destacada es “Super resolution”, una función de inteligencia artificial que convierte videos viejos de baja calidad en versiones más nítidas. También llegan herramientas para compras interactivas, miniaturas más pesadas en 4K y una nueva forma de explorar canales como si fueran series de televisión.  Pero algunos creadores temen que sus videos pierdan autenticidad.  YouTube quiere que cada video luzca bien en un televisor. La plataforma, que ya cumple 20 años, está viendo cómo cada vez más personas prefieren verla en la sala de su casa, no en el móvil. En promedio, los usuarios pasan más de mil millones de horas al día frente a pantallas grandes. Por eso, Google decidió usar inteligencia artificial para mejorar la imagen de videos antiguos, aquellos grabados cuando las cámaras eran mucho menos potentes.El sistema, llamado “Super resolution”, aplicará una técnica de escalado automático que transforma videos en resoluciones bajas —desde 240p hasta 720p— en versiones HD. Más adelante, la meta es que ese mismo proceso permita alcanzar 4K. Los creadores podrán mantener sus archivos originales intactos y elegir si aceptan o no que el sistema los mejore.  Algunos creadores sienten preocupación. Dicen que el nuevo sistema podría alterar la estética de sus videos antiguos o borrar el estilo de grabaciones que forman parte de la historia de YouTube. En redes sociales, varios recordaron que durante las pruebas de escalado en los videos cortos de Shorts, la inteligencia artificial suavizaba tanto las imágenes que las hacía parecer dibujos generados por computadora.Por eso, YouTube incluyó un botón para que tanto creadores como espectadores puedan desactivar esta mejora automática. Quien vea un video podrá decidir si desea la versión original o la mejorada, marcada claramente en el menú con la etiqueta “Super resolution”. Esta opción busca resolver las quejas que surgieron en pruebas previas, cuando algunos usuarios notaron cambios no deseados en la textura de los rostros o en los colores.  Además de la mejora visual, YouTube está cambiando la forma de navegar desde el televisor. Ahora los canales tendrán vistas previas animadas y se organizarán en temporadas, como series. Así será más fácil recorrer contenido sin moverse de la pantalla grande. También llegará un nuevo sistema de compras: cuando un video tenga productos etiquetados, aparecerá un código QR que se podrá escanear con el móvil para comprar directamente.YouTube reporta que en el último año se vieron más de 35 000 millones de horas de videos relacionados con compras. Para aprovechar ese interés, los creadores podrán mostrar productos en momentos específicos del video. Según Kurt Wilms, director de producto de YouTube en TV, la idea es “hacer que el contenido de los creadores brille en la pantalla más grande del hogar”.  El anuncio incluye más mejoras técnicas. Las miniaturas, que antes estaban limitadas a 2 MB, podrán ahora tener hasta 50 MB y resolución 4K, algo importante porque son la primera impresión de cada video. YouTube también está probando con algunos creadores la opción de subir archivos más pesados y de mayor calidad original.En el contexto de esta actualización, la empresa busca reforzar su posición en el mercado del streaming en televisores conectados, conocido como CTV. Según Nielsen, YouTube ya supera a Netflix y Disney+ en tiempo de visualización en Estados Unidos. El objetivo es claro: hacer que los contenidos creados para móviles se vean bien en televisores grandes sin perder identidad visual. Pero la clave será el equilibrio entre la tecnología y el respeto al estilo original de cada creador.  YouTube apuesta por una televisión más nítida y dinámica, con videos antiguos mejorados y compras directas desde el sofá. ¿Te gustaría ver tus videos favoritos en 4K con inteligencia artificial o prefieres la versión original? Cuéntalo y escucha más en Flash Diario.  YouTube usa inteligencia artificial para mejorar videos viejos, añadir compras con QR y rediseñar su experiencia en televisores conectados.  

    3I ATLAS, el visitante interestelar

    Play Episode Listen Later Oct 29, 2025 10:44 Transcription Available


    El cometa 3I/ATLAS alcanza hoy su punto más cercano al Sol, y los astrónomos se preparan para observar datos únicos que podrían revelar sus secretos.  Por Félix Riaño @LocutorCo  El objeto interestelar 3I/ATLAS, descubierto en julio por el sistema ATLAS, se encuentra este 29 de octubre en su perihelio, el punto más cercano al Sol. Astrónomos de todo el mundo observan el fenómeno para descubrir si este visitante de otro sistema estelar es un cometa común o un mensajero con características nunca vistas.  Durante las últimas semanas, 3I/ATLAS ha captado la atención mundial. Es el tercer objeto interestelar detectado en la historia, después de ‘Oumuamua y Borisov. Hoy, al pasar detrás del Sol, no puede observarse desde la Tierra, pero las misiones espaciales lo siguen desde varios puntos del sistema solar. La expectación es grande porque, al salir nuevamente a la vista en noviembre, su trayectoria podría confirmar si se comporta como un cometa normal o si muestra algo inesperado.  Unos pocos científicos sospechan que 3I/ATLAS podría no ser natural.  El 1 de julio de 2025, el sistema de alerta ATLAS detectó un nuevo objeto moviéndose a más de 200 000 kilómetros por hora. Su velocidad y trayectoria indicaban que venía de fuera del sistema solar. Fue bautizado 3I/ATLAS, por ser el tercer objeto interestelar conocido. Tiene unos cinco kilómetros de diámetro, una masa estimada de 33 000 millones de toneladas y una composición dominada por hielo de dióxido de carbono, según mediciones del telescopio espacial James Webb.Lo más sorprendente es que los telescopios detectaron vapor de níquel en su atmósfera, algo inusual porque ese metal no se evapora a temperaturas tan bajas. Este hallazgo, publicado por un equipo internacional en la revista Nature, sugiere que 3I/ATLAS contiene moléculas desconocidas que liberan metales sin necesidad de calor extremo.  En medio de los análisis científicos, el astrofísico Avi Loeb, de Harvard, planteó una hipótesis distinta: ¿y si 3I/ATLAS no fuera un cometa, sino una sonda o nave interestelar construida por otra civilización? Loeb sostiene que su trayectoria y su alineación con el plano orbital de los planetas podrían ser señales de diseño.Él menciona un concepto real de la física llamado efecto Oberth, que explica cómo una nave obtiene el máximo impulso si acelera cerca de una fuente de gravedad, como el Sol. Según Loeb, si 3I/ATLAS cambiara su velocidad durante el perihelio de hoy, sería una prueba de control artificial.La comunidad científica no comparte esa idea. Tom Statler, de la NASA, insiste en que 3I/ATLAS se comporta como un cometa natural: tiene cola, libera gas, y su brillo coincide con lo esperado. Además, el telescopio Hubble confirmó que su llamada “anti-cola”, un chorro de partículas hacia el Sol, cambió de dirección por causas térmicas, no tecnológicas.  La realidad científica, hasta ahora, es que 3I/ATLAS muestra los mismos procesos que otros cometas, aunque con peculiaridades químicas. Las observaciones del Very Large Telescope en Chile confirmaron que su vapor contiene más dióxido de carbono que agua, algo muy raro pero natural. A medida que se acerca al Sol, la radiación provoca que el hielo se sublima y libere gases metálicos, entre ellos el misterioso níquel.NASA, la Agencia Espacial Europea y el proyecto Galileo de Loeb siguen observando desde distintos puntos. Las misiones JUICE, que viaja hacia Júpiter, y Juno, que ya orbita ese planeta, podrán detectarlo en diciembre y medir cualquier emisión de radio o calor anormal. Si no hay señales artificiales ni cambios de trayectoria, el caso quedará resuelto: 3I/ATLAS será confirmado como un cometa natural, portador de materiales antiguos de otro sistema estelar.  El estudio de 3I/ATLAS no es solo una curiosidad. Estos objetos nos permiten analizar de qué están hechos los sistemas planetarios más allá del nuestro. En 2017, ‘Oumuamua despertó interés por su forma alargada y su aceleración inusual; en 2019, Borisov mostró que los cometas interestelares se parecen mucho a los nuestros.Con 3I/ATLAS, los científicos están obteniendo información inédita sobre los compuestos de carbono y los metales de estrellas antiguas. El hallazgo de níquel sin hierro podría ayudar a entender cómo se formaron los planetas en otras galaxias. Además, NASA ha activado su red de defensa planetaria para seguir su recorrido, no porque haya peligro, sino para mejorar sus sistemas de monitoreo ante futuras visitas cósmicas.Loeb reconoce que la probabilidad de que 3I/ATLAS sea artificial es mínima, pero sugiere seguir observando: si después del perihelio apareciera alguna desviación en su órbita o un cambio inexplicable de brillo, la ciencia tendría que replantear varias cosas. Por ahora, el consenso es claro: se trata de un visitante natural, antiguo y fascinante.  Hoy, 3I/ATLAS pasa detrás del Sol y los astrónomos observan atentos. Sea un cometa o un visitante tecnológico, este objeto nos recuerda lo poco que sabemos del cosmos y lo mucho que podemos aprender con la ciencia. Escucha y comenta este episodio en Flash Diario en Spotify.  El cometa interestelar 3I/ATLAS pasa hoy detrás del Sol. Astrónomos esperan descubrir si es un cometa o algo más.  

    ¿Tu tele 8K es un desperdicio? La ciencia dice que sí

    Play Episode Listen Later Oct 28, 2025 8:45 Transcription Available


    Más píxeles de los que ves: Pantallas 8K y 4K prometen imágenes más nítidas, pero un estudio demuestra que tus ojos no las distinguen.  Por Félix Riaño @LocutorCo  Investigadores de Cambridge y Meta descubrieron que el ojo humano tiene un límite real para detectar detalles en pantallas. Más allá de cierto punto, los televisores Ultra HD no se ven mejor, aunque cuesten miles de dólares.  Sigue el pódcast Flash Diario para descubrir más curiosidades de ciencia y tecnología.  Científicos de la Universidad de Cambridge y del laboratorio de realidad de Meta analizaron cuántos píxeles puede distinguir el ojo humano en distintas condiciones. Su conclusión es clara: en un salón promedio, una pantalla 4K o 8K no ofrece una diferencia visible frente a una 2K. El estudio, publicado en Nature Communications, demuestra que los límites de nuestra visión convierten muchos televisores de alta gama en un gasto innecesario. A partir de ahora, la ciencia tiene una medida precisa para responder una pregunta que millones de personas se han hecho frente a una vitrina: ¿realmente se ve mejor un televisor más caro?  Más píxeles no siempre significan mejor imagen, solo más gasto.  Durante años, las marcas de televisión han competido por ofrecer resoluciones más altas: primero Full HD, luego 4K, después 8K. Cada salto prometía una experiencia visual “más real”. Pero un equipo de Cambridge y Meta quiso poner esa promesa a prueba. Construyeron un experimento con un monitor 4K de 27 pulgadas montado en un riel móvil. Dieciocho personas con visión normal observaron líneas finas en distintos colores y distancias. Cuando las líneas eran demasiado pequeñas, los voluntarios ya no podían distinguirlas: veían solo una mancha gris. Con esa información, los científicos calcularon la capacidad real del ojo humano para detectar píxeles individuales.  El resultado fue sorprendente. La mayoría de las personas puede distinguir hasta 94 píxeles por grado en escala de grises, y unos 89 cuando se trata de colores rojo y verde. En cambio, los tonos amarillo y violeta caen hasta 53 píxeles por grado, porque nuestro cerebro procesa peor los detalles de color que los de luz y sombra. Esa limitación biológica significa que, si tienes una televisión de 44 pulgadas y la ves a unos 2,5 metros de distancia —como en la mayoría de salas—, ya estás recibiendo más detalle del que tu vista puede procesar. En otras palabras: comprar una tele 8K no hace que veas mejor, solo hace que pagues más.  Los científicos publicaron una tabla y una calculadora en línea que permiten saber si un televisor realmente ofrece mejoras visibles según el tamaño y la distancia de visualización.Aquí tienes el enlace a la calculadora en línea de la University of Cambridge:Display resolution calculatorPor ejemplo, una pantalla de 40 pulgadas vista a 3 metros se aprovecha totalmente en resolución Full HD. Para notar la diferencia con 4K, habría que acercarse mucho o tener un televisor gigante. Incluso para que una pantalla 8K valga la pena, necesitarías una de 100 pulgadas y verla desde menos de 2 metros. Además, cada píxel adicional consume más energía, requiere más potencia de procesamiento y eleva el precio sin ofrecer beneficios visuales.  El estudio también tiene implicaciones fuera del salón de casa. En la realidad virtual, los videojuegos y los móviles, muchas empresas invierten en pantallas con densidades imposibles de distinguir. Cambridge y Meta advierten que ese esfuerzo podría redirigirse a mejoras más perceptibles, como el contraste, el color o la velocidad de respuesta. El hallazgo pone en duda prácticas comunes como la “submuestra de color”, usada para ahorrar ancho de banda al reducir la resolución de los tonos. El estudio demuestra que el ojo distingue más matices rojo-verde de lo que se creía, lo que podría transformar la forma de comprimir video en el futuro. En resumen, no es que las pantallas 8K sean malas, es que nuestros ojos ya llegaron a su límite.  La ciencia confirma que el ojo humano tiene un límite de detalle. Si ves tu tele desde el sofá, 4K ya es más de lo que puedes distinguir. Antes de gastar en 8K, consulta la calculadora de Cambridge y revisa si realmente lo necesitas.Científicos de Cambridge descubren que el ojo humano no nota diferencia entre 2K, 4K y 8K en tu sala de casa.  

    OpenAI quiere crear canciones

    Play Episode Listen Later Oct 27, 2025 10:33 Transcription Available


    Música con inteligencia artificial: OpenAI prepara su nueva herramienta musical de IA para competir con Suno y Udio.  OpenAI lanza herramienta para crear música desde texto y voz. Ética, arte y negocio se cruzan en la nueva era sonora. Por Félix Riaño @LocutorCo Te invito a seguir escuchando Flash Diario para conocer cómo sigue esta historia.OpenAI trabaja en una herramienta generativa de música capaz de crear acompañamientos, melodías y bandas sonoras a partir de texto y voz, en alianza con estudiantes de Juilliard.  La inteligencia artificial entra a una nueva etapa: la música. OpenAI está desarrollando una herramienta que promete generar música desde texto, audio o ambos. Según varios reportes, el proyecto combina la capacidad de entender lenguaje natural con entrenamiento musical avanzado. OpenAI busca que cualquiera pueda crear una pieza sonora, desde una base para un video de TikTok hasta una composición completa. Para entrenar el modelo, colabora con estudiantes de la prestigiosa Juilliard School de Nueva York, quienes anotan partituras y ejemplos musicales para enseñar ritmo, melodía y armonía al sistema. Este avance llega en medio de disputas legales que involucran a otras empresas de música generada por IA, como Suno y Udio. La pregunta es inevitable: ¿esta vez la IA va a sonar bien y sin problemas legales?La novedad no es el sonido, es la ética detrás del ritmo.  La noticia viene de The Information y fue confirmada por medios como TechCrunch y PCMag. OpenAI está probando un sistema de creación musical basado en texto, capaz de generar acordes, ritmos y melodías según las instrucciones del usuario. Si escribes “melodía tranquila con piano y percusión suave”, la IA puede crear una pista completa que encaje con esa descripción.Lo interesante es el entrenamiento. En lugar de usar solo archivos de audio sueltos, OpenAI trabaja con partituras anotadas por estudiantes de Juilliard. Es un paso importante, porque permite enseñar a la máquina cómo está estructurada la música desde la teoría, no solo desde el sonido. Así, el modelo aprende compases, progresiones armónicas y cómo construir una canción con sentido.La herramienta no tiene nombre oficial ni fecha de lanzamiento. Pero su desarrollo marca el regreso de OpenAI al terreno musical, después de Jukebox, su experimento de 2020 que generaba canciones en estilos como reggae o blues. Ahora, la empresa apunta a integrar música en sus otras plataformas, como ChatGPT o el creador de video Sora.  La parte más compleja no está en los algoritmos, sino en los derechos. Las herramientas de música generada por IA ya han provocado reacciones fuertes en la industria. Suno, uno de los líderes del sector, enfrenta demandas de las tres mayores discográficas del mundo: Universal Music, Sony y Warner.Los sellos lo acusan de usar grabaciones protegidas por derechos de autor para entrenar sus modelos. Según los documentos judiciales, Suno habría empleado técnicas de “stream-ripping”, es decir, la descarga ilegal de canciones desde YouTube, rompiendo las protecciones del sistema.La empresa se defiende diciendo que su uso entra dentro del concepto de “uso justo”, pero los abogados de las discográficas argumentan que la obtención del material fue ilegal, lo que invalida esa defensa.Mientras tanto, OpenAI observa ese escenario con atención. Si quiere lanzar su herramienta sin conflictos, necesita asegurar que su base de datos esté limpia y autorizada. De lo contrario, podría repetir la historia de Suno.El problema es de fondo: ¿cómo se define la creatividad cuando una máquina puede generar música inspirada en miles de artistas humanos? ¿Quién es el autor de una canción creada por IA?  Hay empresas que ya encontraron un camino más seguro. ElevenLabs, conocida por sus voces artificiales, lanzó Eleven Music con acuerdos de licencia con la red de sellos independientes Merlin y la editorial Kobalt. Además, recibió inversión directa de NVIDIA para mejorar la calidad del audio.Estos acuerdos garantizan que los creadores humanos reciban compensación cuando sus obras se usan en el entrenamiento de la IA. Ese modelo podría servirle a OpenAI. Si adopta acuerdos similares, sus usuarios podrán generar música sin miedo a infracciones.Además, OpenAI tiene experiencia en integrar herramientas creativas dentro de su ecosistema. Si combina la generación de video de Sora con esta nueva herramienta musical, podríamos ver videos completos con música original creada en segundos.El beneficio sería enorme para creadores de contenido, músicos independientes y estudios de animación que necesitan sonido original sin pagar licencias complicadas. A la vez, se abriría un espacio para artistas que quieran colaborar con la IA, convirtiéndola en una compañera creativa, no en una rival.Y si logra establecer reglas claras, OpenAI puede convertirse en el nuevo estándar de la música generada con responsabilidad.  La historia de la música y la tecnología ha tenido muchos puntos de inflexión. La llegada del sintetizador en los años setenta, el sampler en los ochenta, y el software de producción en los dos mil cambiaron cómo se componía. Ahora, la IA es el siguiente salto.Suno asegura tener más de 12 millones de usuarios y generar más de 100 millones de dólares anuales. Udio, su principal competidor, también enfrenta una demanda colectiva. Ambas empresas se amparan en la doctrina del “uso justo”, mientras los tribunales estudian si eso aplica a los datos musicales.OpenAI podría aprender de esos errores. Al trabajar con Juilliard, apuesta por una base de datos académica y transparente. Eso la separa del resto. Su enfoque busca enseñar a la IA desde la partitura, no desde la piratería.Los expertos creen que esta decisión es estratégica. Además de evitar demandas, mejora la calidad. Un modelo que entiende cómo funciona la armonía puede crear música más coherente, con melodías que se repiten y evolucionan, y con finales que suenan intencionados.La IA musical ya no es una curiosidad. Es una nueva industria. Y las empresas que la lideren, si actúan con ética, pueden transformar el futuro del entretenimiento y del trabajo creativo.

    Mico: el nuevo Copilot que te habla y te recuerda

    Play Episode Listen Later Oct 24, 2025 13:47 Transcription Available


    Mico revive a Clippy Microsoft presenta Mico, el nuevo rostro de Copilot con memoria, voz y una sorpresa para nostálgicos de Clippy.  Por Félix Riaño @LocutorCo  Escucha este episodio completo y coméntalo en Flash Diario en Spotify.  Microsoft acaba de lanzar una actualización importante para Copilot, su asistente de inteligencia artificial, con doce funciones nuevas que ya están activas en Estados Unidos y llegarán pronto a más países. La novedad más comentada es Mico, un nuevo avatar animado que puede expresarse, hablar contigo y, si sabes cómo hacerlo, transformarse en el legendario Clippy, aquel clip que hace casi treinta años enseñaba a usar Word.Esta actualización no solo añade nostalgia, también introduce funciones de memoria, trabajo en grupo, tutoría por voz y consultas de salud verificadas. La pregunta es: ¿puede una IA ser útil, divertida y segura al mismo tiempo?  La nostalgia se mezcla con la inteligencia artificial más avanzada.  Mico es la nueva cara de Copilot, el asistente de Microsoft. Su nombre viene de “Microsoft” y “Copilot”. Es un personaje animado que cambia de color según la conversación y puede reaccionar con expresiones parecidas a las de un ser vivo. Mustafa Suleyman, director de Microsoft AI, lo describe como un compañero “expresivo, cálido y personalizable”. Está diseñado para dar una sensación más humana a la interacción con la inteligencia artificial.Mico puede acompañarte por voz, adaptarse a tu tono y ayudarte a resolver tareas o proyectos. Si quieres, puedes desactivarlo y quedarte con la interfaz tradicional. Pero si lo tocas varias veces, aparece Clippy, el viejo asistente que muchos recordamos por su forma de clip. Un guiño directo a los años noventa, ahora potenciado por IA.  El regreso de un asistente con rostro y personalidad despierta entusiasmo, pero también dudas. Por ejemplo, Mico puede recordar información personal, como fechas importantes o tus objetivos de entrenamiento, y usar esos datos para ofrecer respuestas más acertadas. Esa memoria constante es práctica, pero hace pensar en la privacidad. Microsoft dice que el acceso a datos requiere permiso explícito y que el usuario puede borrar su memoria en cualquier momento.Otro tema polémico es Copilot para la salud: el chatbot puede responder preguntas médicas basándose en fuentes como Harvard Health y ayudarte a buscar doctores por idioma o especialidad. Es útil, pero también arriesgado, porque la línea entre una sugerencia informativa y un diagnóstico médico es muy delgada.  Copilot también gana funciones colaborativas. Ahora hasta treinta y dos personas pueden compartir una misma conversación en tiempo real. El sistema resume los mensajes, propone opciones, lleva la cuenta de votos y reparte tareas. Es como tener un coordinador invisible en un grupo de estudio o trabajo. Además, con la función Imagine, los usuarios pueden crear y modificar imágenes generadas por IA de manera colectiva.Otra mejora importante es el modo Learn Live, en el que Mico se convierte en un tutor socrático: en lugar de dar respuestas, hace preguntas, usa pizarras interactivas y guía al estudiante para razonar. También llega Journeys, una función que recuerda tus pestañas y búsquedas en el navegador Edge, permitiéndote cerrar todo sin miedo a perder el hilo. Y gracias a los Connectors, Copilot puede enlazar tus cuentas de Gmail, OneDrive y Google Drive, convirtiéndose en un verdadero asistente integral.  La actualización se está desplegando gradualmente desde Estados Unidos hacia Reino Unido, Canadá y otros países. Microsoft indica que la disponibilidad depende del dispositivo y la suscripción: algunas funciones requieren Microsoft 365 Personal o Family.Estas novedades se suman a la tendencia de los “agentes conversacionales” que hemos visto esta semana con Atlas, el navegador integrado con ChatGPT de OpenAI, y Comet, el buscador conversacional de Perplexity. Todas apuntan a un mismo cambio: la web ya no se navega, se conversa.Mico se apoya en nuevos modelos internos de Microsoft, como MAI-Voice-1 y MAI-Vision-1, que buscan ofrecer una interacción más natural entre voz, texto e imágenes. Y como guiño adicional a la historia tecnológica, Mico permite activar el modo Clippy escribiendo “/clippy”. Es una función puramente estética, pero llena de nostalgia para quienes aprendieron informática con aquel clip sonriente.Resumen final y recomendación (60 palabras)Microsoft quiere que Copilot se sienta más humano con Mico, su nuevo asistente visual, que incluso puede transformarse en Clippy. Entre sus novedades hay memoria, colaboración y tutoría. ¿Será el regreso triunfal del asistente digital que todos recordamos?Escucha este episodio completo y coméntalo en Flash Diario en Spotify.  Microsoft revive a Clippy con Mico, un avatar de IA que habla, recuerda y colabora con grupos. Nostalgia y tecnología juntas.  Bibliografía:PCMag – The New Clippy? Mico Is One of 12 Copilot Upgrades Rolling Out NowThe Verge – Meet Mico, Microsoft's AI Version of ClippyWindows Central – Microsoft's New Copilot Has a Secret: It Can Turn Into ClippyReuters – Microsoft Introduces New Copilot Features Such as Collaboration, Google IntegrationSearch Engine Journal – Microsoft Updates Copilot With Memory, Search Connectors, & MoreEngadget – Mico Is Microsoft's Clippy for the AI AgeConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

    Comet: el navegador con IA que ahora es gratis

    Play Episode Listen Later Oct 23, 2025 13:20 Transcription Available


    Comet gratis para todosComet se vuelve gratuito y se enfrenta a Atlas, el navegador con ChatGPT.   Por Félix Riaño @LocutorCo   Puedes probarlo gratis con mi enlace y recibir un mes de Comet Pro.Síguenos en Spotify: Flash Diario.  El navegador Comet de Perplexity ya está disponible gratis para todos. Antes costaba 200 dólares al mes y solo podían usarlo los suscriptores de Perplexity Max. Ahora cualquier persona puede descargarlo para Mac o Windows y aprovechar su asistente de inteligencia artificial integrado, que puede leer páginas web, resumir contenido, navegar por nosotros y hasta ayudarnos a trabajar con correos, viajes y finanzas.  Comet es el primer navegador de Perplexity AI y acaba de convertirse en gratuito para todo el mundo. Está diseñado para reemplazar las pestañas tradicionales con un espacio de trabajo inteligente que integra un asistente capaz de analizar cualquier página, resumir textos, encontrar datos y hasta realizar acciones en línea. Su creador, Aravind Srinivas, dijo que Comet puede aumentar la productividad de las empresas y que su valor anual podría equivaler a 10 000 dólares por persona. Millones de usuarios estaban en lista de espera para probarlo. Pero su lanzamiento también ha despertado preocupaciones serias sobre seguridad, después de que investigadores demostraran que el navegador podía ser engañado por sitios maliciosos que logran ejecutar órdenes ocultas dentro de su asistente.  Lo brillante de la inteligencia puede volverse peligroso si no se protege.  Comet fue presentado como un navegador diferente. En lugar de depender de pestañas abiertas, propone un entorno de trabajo donde cada tarea tiene su propio asistente. Puedes pedirle que busque una receta, resuma un documento o mantenga abiertas solo las páginas activas mientras cierra las inactivas. Además, cuenta con “Discover”, que ofrece noticias personalizadas, y un modo Picture-in-Picture automático para mantener visible un video o videollamada mientras se navega. Su integración con el ecosistema de Perplexity permite hacer consultas sin cambiar de ventana. En pocas palabras, combina un buscador, un asistente personal y un navegador en una sola herramienta.  Pero con la inteligencia llega la vulnerabilidad. Investigadores del navegador Brave descubrieron que Comet podía ser víctima de ataques llamados “inyecciones de prompt”. Este tipo de ataque consiste en esconder instrucciones maliciosas dentro de páginas web o imágenes, de modo que el asistente de inteligencia artificial las lea sin que el usuario lo note. En las pruebas, esas instrucciones lograron que Comet abriera cuentas de Gmail y copiara correos hacia los atacantes. Otro estudio de la empresa de ciberseguridad LayerX detectó un caso similar que bautizaron como “CometJacking”: enlaces con comandos ocultos podían hacer que el navegador robara información o realizara compras falsas. Aunque Perplexity afirma que ya corrigió esas fallas y que no fueron explotadas, los expertos advierten que los navegadores con agentes autónomos todavía tienen mucho que mejorar en seguridad.  Aun así, Comet no ha perdido fuerza. Tras las críticas, Perplexity reforzó su programa de recompensas para investigadores de seguridad y amplió sus alianzas. Una de las más destacadas es con Chess.com, que organiza el torneo “Comet Open” con 200 000 dólares en premios y un mes gratuito de funciones premium para los jugadores que usen el navegador. Además, Comet sigue sumando novedades prácticas: modo pantalla dividida, bloqueador de anuncios, y próximamente una VPN integrada. Su asistente puede analizar correos, planificar viajes, o resumir videos de YouTube. Por eso muchos usuarios lo comparan con Atlas, el nuevo navegador de OpenAI impulsado por ChatGPT, que también promete realizar acciones en la web con un “modo agente”. La diferencia es que Atlas aún está limitado a usuarios de pago, mientras Comet ya es totalmente gratuito.  El lanzamiento de Comet coincide con una nueva etapa de competencia entre navegadores con inteligencia artificial. Google integró Gemini en Chrome; Opera lanzó Neon, su propio navegador con IA; y The Browser Company presentó Dia, con enfoque en privacidad. En este contexto, Perplexity se posiciona como una alternativa de productividad. Su fundador asegura que si Comet logra aumentar la eficiencia un 20 %, podría sumar 5 billones de dólares al producto interno bruto mundial. Pero la otra cara de la innovación está en la confianza: un navegador que puede ejecutar órdenes por su cuenta necesita límites claros. De hecho, OpenAI advirtió que su propio navegador Atlas solo podrá actuar dentro de las pestañas, sin acceso a archivos del ordenador. Así, el futuro de los navegadores inteligentes dependerá tanto de su utilidad como de su capacidad para protegernos.  Comet ya está disponible gratis para Mac y Windows. Es un navegador con asistente integrado que promete hacerte la vida más fácil, aunque también exige usarlo con precaución.  Puedes probarlo gratis con mi enlace y recibir un mes de Comet Pro: https://pplx.ai/felix61591.Síguenos en Spotify: Flash Diario.  Comet, el navegador con inteligencia artificial de Perplexity, ahora es gratis. Potente y útil, pero con alertas de seguridad importantes.  

    Atlas (de OpenAI) desafía a Google

    Play Episode Listen Later Oct 22, 2025 12:47 Transcription Available


    Atlas desafía a GoogleEl navegador Atlas de OpenAI une ChatGPT con la web en una experiencia sin precedentes, capaz de leer, resumir y actuar en línea por ti.  Por Félix Riaño @LocutorCo  OpenAI lanzó Atlas, su primer navegador gratuito con inteligencia artificial integrada. La novedad está en que no usa una barra de direcciones: usa a ChatGPT como puerta de entrada a Internet. Con esta jugada, Sam Altman desafía directamente a Google Chrome, Safari y Microsoft Edge, los tres gigantes que dominan el acceso a la web. Alphabet, la empresa matriz de Google, vio caer sus acciones cerca de un 3 % tras el anuncio.  Atlas fue presentado en una transmisión en vivo donde Sam Altman dijo que esta es una oportunidad única para repensar lo que puede ser un navegador. En lugar de escribir direcciones o hacer búsquedas, las personas pueden pedirle cosas directamente a ChatGPT. Por ejemplo, “muéstrame recetas con aguacate” o “busca un vuelo a París y resérvalo”. Atlas responde, resume y puede incluso realizar las tareas por ti si activas su nuevo “modo agente”. La aplicación está disponible desde hoy para macOS y llegará pronto a Windows, iOS y Android. ¿Podrá un navegador nuevo cambiar la forma en que usamos Internet?  Pero Atlas no tiene una barra de direcciones. Y eso cambia todo.  Atlas funciona como si ChatGPT se convirtiera en la página de inicio de Internet. Cada nueva pestaña abre el chat directamente, y desde allí se puede escribir lo que antes se buscaba en Google. El navegador tiene memoria y aprende del usuario, recordando consultas, historiales y preferencias para ofrecer respuestas más personalizadas. También incorpora una barra lateral llamada “Ask ChatGPT” que acompaña la navegación en cada página. Desde esa ventana, se pueden hacer preguntas sobre el contenido que se esté viendo, sin copiar ni pegar nada. Altman mostró ejemplos como resumir una crítica de cine o pedir que compre ingredientes en línea a través de Instacart.  Este lanzamiento abre una nueva batalla en lo que algunos medios ya llaman las “guerras de navegadores de la era de la IA”. Chrome tiene una cuota de mercado mundial del 72 %, mientras Safari posee el 14 %. Romper ese dominio parece casi imposible, pero OpenAI cree que integrar la inteligencia artificial directamente en la experiencia de navegación puede ser la clave. Atlas ofrece una experiencia conversacional, en la que el chat reemplaza los motores de búsqueda tradicionales. Esto afecta el modelo de negocio de Google, que vive de los anuncios junto a sus enlaces. Analistas financieros en CNBC y Investor's Business Daily explicaron que el temor de los inversionistas es que, si las personas dejan de buscar enlaces y comienzan a conversar con Atlas, la publicidad de Google pierda valor.  Atlas no es solo un buscador con inteligencia artificial. Es un navegador completo con pestañas, marcadores, autocompletado y un modo agente capaz de actuar como si fuera el usuario. Puede comprar tiquetes de avión, escribir correos, llenar formularios o hacer compras en línea. En la demostración, se vio cómo el agente navegaba por varias páginas, seleccionaba ingredientes de una receta y los añadía a un carrito de compras. Todo esto ocurre en tiempo real y bajo supervisión del usuario. Aunque está en fase experimental, OpenAI promete que con el tiempo el agente aprenderá más tareas y se volverá un asistente integral. Por ahora, este modo solo está disponible para quienes pagan las versiones Plus y Pro de ChatGPT.  La estrategia de OpenAI recuerda al lanzamiento de Google Chrome en 2008, cuando Google integró su motor de búsqueda dentro del navegador y cambió la historia de la web. Hoy la situación se invierte: OpenAI quiere quitarle ese poder. Los medios Wired, Financial Times y Bloombergcoinciden en que Atlas busca un “momento Chrome” propio, donde la inteligencia artificial reemplace la barra de búsqueda por una conversación natural. El navegador recopila datos con permiso del usuario para personalizar respuestas, igual que hacen Chrome o Safari, pero sin depender de motores externos. Perplexity, otro competidor, presentó su propio navegador llamado Comet, y Google ya integró su chatbot Gemini dentro de Chrome. La competencia está en plena ebullición. Sam Altman dijo que este es solo el comienzo y que “hay mucho más por agregar”.  Atlas es el nuevo navegador de OpenAI que convierte a ChatGPT en la puerta principal de Internet. Su modo agente promete automatizar tareas y desafiar a Google Chrome. ¿Será este el inicio de una nueva forma de navegar?Puedes escuchar más episodios como este en Flash Diario en Spotify.  OpenAI lanzó Atlas, un navegador con ChatGPT integrado que conversa con páginas, hace tareas y reta el dominio de Google.  Bibliografía:The New York TimesCNBCFinancial TimesWiredArs TechnicaBloombergBarron'sBusiness InsiderCBS NewsInvestor's Business DailyConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

    Play Episode Listen Later Oct 21, 2025 9:01 Transcription Available


    Los nuevos inodoros con cámaras y sensores usan inteligencia artificial para analizar tu salud intestinal diaria.   Por Félix Riaño @LocutorCo  Escucha esta y más historias de tecnología en Flash Diario.  Desde Japón hasta Estados Unidos, el baño está entrando en la era de la inteligencia artificial. Inodoros con cámaras, luces LED y sensores analizan las heces y la orina para detectar signos tempranos de enfermedades o deshidratación. La empresa Kohler presentó su dispositivo Dekoda, mientras que la japonesa Toto y la startup Throne avanzan con modelos que convierten cada visita al baño en un chequeo médico automatizado. Lo que antes era rutina ahora puede ser diagnóstico. ¿Podríamos llegar a detectar cáncer de colon solo con un vistazo a nuestro inodoro?  

    Siri preocupa dentro de Apple

    Play Episode Listen Later Oct 20, 2025 12:15 Transcription Available


    Siri preocupa dentro de Apple: Ingenieros de Apple expresan dudas sobre el rendimiento de Siri en las pruebas internas de iOS 26.4.  Por Félix Riaño @LocutorCo   Escucha más sobre esta historia en Flash Diario en Spotify  El próximo Siri con inteligencia artificial de Apple, previsto para iOS 26.4 en 2026, está generando inquietud entre empleados que ya lo están probando. Según reportes de Bloomberg y medios especializados como 9to5Mac, MacRumors y AppleInsider, las versiones internas de prueba no están cumpliendo las expectativas. La renovación de Siri debía marcar un cambio profundo para el asistente, pero los ingenieros describen resultados decepcionantes. Aún quedan seis meses para el lanzamiento público, pero dentro de la empresa se habla de “preocupación”. ¿Podrá Apple lograr que Siri finalmente compita de tú a tú con los asistentes impulsados por inteligencia artificial de Google y OpenAI?  A comienzos de 2026, Apple planea lanzar su Siri completamente renovado dentro de la actualización iOS 26.4. Esa versión promete integrar el sistema Apple Intelligence, con un asistente capaz de entender el contexto personal del usuario, ver lo que hay en pantalla y ejecutar acciones dentro de las apps. Pero a pesar del tiempo extra que Apple se tomó para reconstruirlo desde cero, algunos ingenieros que prueban el software dicen que el nuevo Siri todavía no funciona bien.Las pruebas internas apuntan a problemas de rendimiento. Mark Gurman, periodista de Bloomberg, escribió en su boletín Power On que varios empleados expresan dudas sobre la calidad actual del asistente. Los ingenieros consideran que el comportamiento de Siri no está a la altura de lo que Apple había prometido en la conferencia de desarrolladores WWDC 2024.Apple Intelligence se presentó como el gran paso para que la inteligencia artificial funcione directamente en los dispositivos, sin depender siempre de la nube. Pero el estado actual del proyecto ha generado malestar dentro de la compañía y preocupación en el mercado.  Algunos temen que Apple termine dependiendo de Google Gemini.  En junio de 2024, Apple prometió que Siri se transformaría por completo gracias a Apple Intelligence. Sería un asistente con tres superpoderes: saber qué hay en pantalla, recordar el contexto de cada usuario y actuar dentro de las aplicaciones sin necesidad de tocar la pantalla. Esa versión debía llegar en 2025 con iOS 18.4 o 18.5. Pero los retrasos empezaron a acumularse cuando los ingenieros reconocieron que el sistema no cumplía con los estándares de calidad de Apple.Craig Federighi, jefe de software, explicó después de la conferencia WWDC25 que el equipo necesitaba más tiempo para “re-arquitecturar” Siri. Esa nueva etapa implicó dos caminos paralelos: un grupo trabajando con modelos de inteligencia artificial que funcionan dentro del dispositivo, y otro con modelos alojados en la nube privada de Apple, bajo el sistema Private Cloud Compute.El plan original era decidir cuál versión funcionaba mejor en una especie de “bake-off”, una competencia interna. Pero los reportes más recientes indican que el prototipo actual probablemente usa los modelos locales, y que los resultados no son alentadores.  El problema no es nuevo. Siri lleva años intentando ponerse al día frente a Alexa, Google Assistant y ChatGPT. Apple tardó más de una década en transformar su asistente en un sistema realmente inteligente. Mientras tanto, la presión externa aumentó. Los avances de OpenAI y Google Gemini demostraron lo que un asistente conversacional puede hacer cuando se combina lenguaje natural con razonamiento.Apple Intelligence intentó ofrecer una alternativa: inteligencia generativa que funcione dentro del propio iPhone, sin depender de servidores externos. Eso permitiría proteger la privacidad y mantener la velocidad. Pero el desafío técnico ha sido enorme. Según AppleInsider, la empresa ha tenido que reorganizar equipos y busca reemplazar a John Giannandrea, el directivo a cargo de la inteligencia artificial. También se confirmó que Robby Walker, otro líder del área, dejará la empresa en octubre.Además, Apple enfrenta una fuga de talento hacia competidores como Meta, que ofrecen sueldos más altos a los ingenieros especializados en modelos de lenguaje. Esa pérdida de personal ha retrasado aún más el desarrollo y ha afectado el ánimo dentro de los equipos de Cupertino.  A pesar de las dificultades, Apple mantiene su calendario: Siri debería llegar en la primavera de 2026 con iOS 26.4. Analistas financieros, como Amit Daryanani de Evercore ISI, creen que este lanzamiento podría ser un punto de inflexión para el valor de las acciones de Apple. Si el nuevo Siri cumple lo prometido, podría cambiar la percepción de los inversionistas y marcar el inicio de un nuevo ciclo de actualizaciones para el iPhone.Pero las dudas dentro de Apple son un mal presagio. Los ingenieros que están probando el sistema lo describen como inestable y poco confiable. Aún no se sabe si los problemas vienen de los modelos locales o de los que dependen de Google Gemini. Si la versión final no logra brillar, Apple podría verse obligada a admitir que necesita recurrir al modelo de Google para que Siri funcione como debe.Esa posibilidad, aunque incómoda para una empresa que siempre ha presumido de independencia tecnológica, no está descartada. De hecho, Apple ya colabora con OpenAI para integrar ChatGPT dentro de sus dispositivos. Lo que falta por ver es si esa colaboración se convierte en una dependencia.  Bloomberg, MacRumors y AppleInsider coinciden en que Apple aún tiene entre cinco y seis meses para corregir los errores antes del lanzamiento. iOS 26.4 llegaría en marzo o abril de 2026, junto con las actualizaciones de macOS Tahoe y los nuevos equipos con chips M6.Durante los últimos meses, Apple ha añadido funciones menores de Apple Intelligence a otras partes del sistema: limpieza automática de imágenes en Fotos, creación de Genmoji personalizados y respuestas de ChatGPT integradas dentro de Siri. Pero el “gran salto” de un Siri verdaderamente proactivo todavía no se ha materializado.Dentro del código de iOS 26.1 ya hay referencias al “Model Context Protocol”, una estructura diseñada para que las apps puedan compartir información con la inteligencia artificial de forma más fluida. Si ese protocolo se completa, Siri podría acceder a datos de Mail, Calendario, Mensajes o Mapas sin comprometer la privacidad.La promesa original de Apple Intelligence era justamente esa: que el iPhone entienda lo que haces, recuerde lo que necesitas y actúe por ti sin exponerte a la nube. Falta ver si la empresa logra que esa promesa se cumpla a tiempo.  Apple enfrenta una carrera contrarreloj para lanzar su nuevo Siri con inteligencia artificial en iOS 26.4. Los ingenieros que ya lo probaron expresan preocupación, pero aún queda margen para mejorar. Si Apple logra cumplir su promesa, podría recuperar liderazgo en la era de los asistentes inteligentes.  Escucha más sobre esta historia en Flash Diario en Spotify  Apple prueba su nuevo Siri con IA para iOS 26.4, pero sus ingenieros están preocupados por su rendimiento actual.  

    Copilot Voice: el paso más audaz de Microsoft

    Play Episode Listen Later Oct 17, 2025 12:27 Transcription Available


    El computador que te escucha: Microsoft presenta Copilot Voice y Copilot Vision, las nuevas funciones de Windows 11 que permiten hablar con tu computador y dejar que la inteligencia artificial actúe por ti.   Por Félix Riaño @LocutorCo  Síguelo en Spotify aquí

    Mini supercomputador de Nvidia

    Play Episode Listen Later Oct 15, 2025 7:51 Transcription Available


    El nuevo Nvidia DGX Spark promete un petaflop de potencia y 128 GB de memoria unificada, capaz de ejecutar modelos de IA gigantes en tu escritorioPor Félix Riaño @LocutorCo  Si te gusta la tecnología y quieres entender el futuro de los mini PC, búscame en Flash Diario en Spotify.   Nvidia acaba de lanzar el DGX Spark, un computador tan pequeño que cabe en una mano, pero tan potente que puede ejecutar modelos de inteligencia artificial con 200.000 millones de parámetros. Cuesta 4.000 dólares, pesa apenas 1,2 kilogramos y consume 240 vatios, lo mismo que una bombilla potente.La presentación oficial coincidió con una escena poco común: Jensen Huang, el CEO de Nvidia, llevó personalmente el primer Spark a Elon Musk en las instalaciones de SpaceX, en Texas, justo antes del ensayo número 11 del cohete Starship. Según Nvidia, el Spark no está pensado para videojuegos ni para uso doméstico, sino para desarrolladores, investigadores y creadores que necesiten potencia de supercomputador sin depender de la nube. Su promesa es poner la inteligencia artificial “al alcance de la mano”.  Pequeño por fuera, pero con cerebro de cohete espacial.El DGX Spark es, literalmente, un supercomputador de escritorio. Mide apenas 15 por 15 centímetros y 5 centímetros de grosor. Dentro lleva el nuevo chip GB10 Grace Blackwell Superchip, una combinación de CPU Arm de 20 núcleos y GPU Blackwell con el poder de una RTX 5070. Su sistema operativo no es Windows, sino DGX OS, una versión personalizada de Ubuntu Linux llena de herramientas para inteligencia artificial.Nvidia lo describe como “el supercomputador de IA más pequeño del mundo”, capaz de alcanzar un petaflop, es decir, un millón de billones de operaciones por segundo. Y lo mejor: puedes enchufarlo en un tomacorriente normal y tener potencia de centro de datos en tu mesa de trabajo.Durante años, los desarrolladores de inteligencia artificial tuvieron que alquilar tiempo en la nube para entrenar modelos grandes. Eso implicaba pagar mes a mes, esperar colas y depender de servidores remotos. Los computadores personales simplemente no tenían memoria suficiente ni conectividad adecuada para manejar tantos datos.El DGX Spark quiere cambiar esa historia. Con sus 128 GB de memoria unificada y NVLink-C2C para cinco veces más ancho de banda que PCIe 5, puede ejecutar modelos locales como Flux.1 de Black Forest Labs para generar imágenes, Cosmos Reason para visión computacional o Qwen3 para crear chatbots. Aun así, queda la duda: ¿cuántas personas podrán pagar 4 000 dólares por un mini PC que no trae Windows ni está pensado para jugar?Nvidia está apostando a que sí. Quiere que cada estudiante, investigador y creador tenga su propio laboratorio de IA en el escritorio. Por eso abrió el hardware a socios como Acer, Asus, Dell, HP, Lenovo y MSI, que lanzarán sus propias versiones del Spark. La idea es democratizar la potencia de la IA sin depender de la nube.Además, Nvidia prepara un modelo mayor, el DGX Station, una torre de escritorio con el chip GB300 Grace Blackwell Ultra que va a llegar a finales de año. Mientras tanto, el pequeño Spark ya está en laboratorios de robótica, universidades y estudios de arte digital, donde empiezan a usarlo para entrenar modelos sin internet ni latencia. Y sí, la versión que recibió Elon Musk fue autografiada por Jensen Huang.El primer DGX Spark se entregó a Musk en la base de SpaceX en Texas, justo cuando se preparaba el undécimo vuelo de Starship. Nvidia aprovechó la escena para recordar que ya en 2016 le había dado a OpenAI su primer DGX-1, una máquina que costaba 129.000 dólares y medía más de 85 centímetros. Hoy, el Spark cuesta una treintava parte y es 20 veces más pequeño.Con su peso de 1,2 kilogramos y sus 200 Gb/s de conectividad, puede conectarse a otros Sparks para trabajar en equipo, como si fueran bloques de LEGO de supercomputación. Las reseñas especializadas ya lo llaman “freaking cool” y “un laboratorio en una caja”. En otras palabras, Nvidia no solo vendió un PC, sino una fantasía para los que soñaban con tener su propio centro de datos en el escritorio.  El DGX Spark de Nvidia transforma el concepto de computador personal con potencia de supercomputador por 4.000 dólares. Aunque no es para todos, marca el inicio de una nueva generación de IA local.  Si te gusta la tecnología y quieres entender el futuro de los mini PC, búscame en Flash Diario en Spotify.  Nvidia lanza el DGX Spark: un mini supercomputador de 4.000 dólares con 1 petaflop de potencia y 128 GB de memoria.  

    Windows 10 termina hoy- así puedes mantenerlo seguro gratis

    Play Episode Listen Later Oct 14, 2025 8:36 Transcription Available


    Adiós Windows 10: Termina hoy, pero hay un año gratis de seguridad  Por Félix Riaño @LocutorCo  Escucha más consejos en Flash Diario en Spotify.  Desde hoy, 14 de octubre de 2025, Microsoft deja de actualizar Windows 10. Pero hay buenas noticias: puedes mantenerlo seguro durante un año más con el programa Extended Security Updates (ESU). Aquí te cuento cómo hacerlo gratis y evitar riesgos mientras decides si pasarte a Windows 11.  Después de diez años, Windows 10 llega oficialmente al final de su vida útil. A partir de hoy, los equipos que sigan usando este sistema operativo dejarán de recibir actualizaciones de seguridad automáticas. Eso significa que seguirán funcionando, pero estarán más expuestos a ataques informáticos. Microsoft ofrece tres caminos: pasarte gratis a Windows 11, comprar un nuevo PC o activar un año extra de protección con el programa Extended Security Updates (ESU). Esta última opción es gratuita para la mayoría de usuarios, y se puede activar en pocos minutos desde el menú de configuración. ¿Quieres saber cómo mantener tu computadora protegida sin gastar dinero?  El fin de Windows 10 no tiene que ser el fin.  Windows 10 se lanzó en 2015 como una actualización gratuita desde Windows 7 y Windows 8. Desde entonces, ha sido el sistema operativo más usado del planeta. Hoy, Microsoft lo declara oficialmente en “estado de fin de vida”. Esto no apaga tu computadora ni borra tus archivos, pero sí detiene las actualizaciones de seguridad. Y sin esas actualizaciones, las vulnerabilidades pueden ser aprovechadas por virus o fraudes. Para evitarlo, Microsoft creó el programa Extended Security Updates (ESU), pensado para quienes no pueden o no quieren actualizar todavía a Windows 11. Este programa extiende las actualizaciones de seguridad por un año más, hasta el 13 de octubre de 2026.  El obstáculo principal es que muchos equipos antiguos no cumplen los requisitos de Windows 11. El nuevo sistema exige, por ejemplo, un chip TPM 2.0, procesadores recientes y al menos 4 GB de memoria RAM. Esto deja a millones de usuarios sin posibilidad de actualizar fácilmente. Además, según Windows Central, la herramienta oficial de instalación de Windows 11 falló justo antes de esta fecha, lo que dificulta aún más la migración. Ante este panorama, el programa ESU se convierte en una solución práctica para mantener la seguridad de los equipos con Windows 10 mientras se busca una alternativa definitiva.  Activar el programa ESU es sencillo y gratuito en la mayoría de los casos. Solo hay que abrir la Configuración de Windows 10, entrar en Actualización y seguridad, y buscar el enlace “Inscribirse ahora” en el aviso sobre el fin del soporte. Allí aparecen tres formas de hacerlo:1️⃣ Sincronizar la copia de seguridad del PC con OneDrive (gratis hasta 5 GB).2️⃣ Canjear 1 000 puntos del programa Microsoft Rewards.3️⃣ Pagar 30 dólares por un año adicional de actualizaciones.En Europa, la extensión gratuita se aplica sin necesidad de usar OneDrive. En otros países, la opción más rápida es la sincronización en la nube, aunque se pueden desactivar carpetas grandes para no superar el límite gratuito. Una vez inscrito, tu PC seguirá recibiendo parches de seguridad hasta octubre de 2026.  Microsoft aclara que el programa ESU solo incluye parches de seguridad y no añade funciones nuevas ni soporte técnico. Es una medida temporal, pensada como un “puente” hasta la migración a Windows 11 o a otro sistema moderno. Según CNET y PCMag, más de 400 millones de computadoras siguen usando Windows 10, y muchas lo harán durante 2026. Si decides cambiar de equipo, Wired recomienda laptops con Windows 11 como el Framework 13, el Lenovo Yoga 7i o el Acer Swift 16 AI, con mejor rendimiento y eficiencia energética. Por ahora, el paso más importante es activar el programa ESU hoy mismo, para mantener tu computadora protegida mientras planificas tu próxima actualización.  Windows 10 llega al final de su soporte, pero puedes seguir protegido durante un año más con el programa gratuito ESU. Actívalo desde Configuración → Actualización y seguridad → “Inscribirse ahora”. Es rápido, gratuito y te da tiempo para decidir tu paso a Windows 11.  Escucha más consejos en Flash Diario en Spotify.  Hoy termina Windows 10. Activa gratis el programa ESU en Configuración y protege tu PC con seguridad hasta octubre de 2026.

    Claim FLASH DIARIO de El Siglo 21 es Hoy

    In order to claim this podcast we'll send an email to with a verification link. Simply click the link and you will be able to edit tags, request a refresh, and other features to take control of your podcast page!

    Claim Cancel