FLASH DIARIO de El Siglo 21 es Hoy

Follow FLASH DIARIO de El Siglo 21 es Hoy
Share on
Copy link to clipboard

Flash Diario, de El Siglo 21 es Hoy. Es el pódcast informativo que te mantiene al día con las noticias más recientes y más relevantes del siglo 21. ¡En menos de 5 minutos! Y es un producto informativo de ElSiglo21esHoy.com Cada episodio de Flash Diario te ofrece una dosis diaria de actualidad en formato breve y conciso, presentando las noticias más importantes en diferentes ámbitos como la tecnología, la ciencia, la cultura y la sociedad. Con Flash Diario no tienes que preocuparte por perderte ninguna novedad o avance importante en tu día a día. En menos de 5 minutos te ofrecemos la información más relevante de manera clara y precisa, para que puedas estar al tanto de lo que sucede en el mundo sin perder tiempo ni detalles. Flash Diario es el compañero perfecto para las personas que quieren estar al tanto de las últimas noticias pero no tienen tiempo para seguir programas más largos y detallados. Con Flash Diario estarás siempre actualizado, informado y preparado para cualquier conversación o situación que se presente. ¡Suscríbete ahora y no te pierdas ni un solo flash informativo! Suscríbete gratis en: ➜ YouTube: https://bit.ly/FlashDiario ➜ Spotify: https://spoti.fi/3MRBhwH ➜ Apple Podcasts: https://apple.co/3BR7AWe This show is part of the Spreaker Prime Network, if you are interested in advertising on this podcast, contact us at https://www.spreaker.com/show/5835407/advertisement

@LocutorCo

Donate to FLASH DIARIO de El Siglo 21 es Hoy


    • Apr 20, 2026 LATEST EPISODE
    • weekdays NEW EPISODES
    • 6m AVG DURATION
    • 828 EPISODES


    Search for episodes from FLASH DIARIO de El Siglo 21 es Hoy with a specific topic:

    Latest episodes from FLASH DIARIO de El Siglo 21 es Hoy

    Entrenar con ChatGPT- ¿error o ayuda?

    Play Episode Listen Later Apr 20, 2026 12:18 Transcription Available


    Entrenar con IA: La inteligencia artificial está cambiando cómo entrenas, pero también plantea riesgos si la usas sin criterio.Por Félix Riaño @LocutorCo Cada vez más personas están usando inteligencia artificial para entrenar. Apps, chatbots y asistentes digitales prometen planes personalizados en segundos. Tú escribes tu objetivo y recibes una rutina completa. Pero ahora varios entrenadores están levantando la mano. Dicen que confiar ciegamente en estos planes puede terminar en lesiones, frustración o malos hábitos. ¿Está la inteligencia artificial lista para reemplazar a un entrenador humano o todavía le falta entender algo básico del cuerpo? La IA ayuda, pero puede fallar cuando el cuerpo responde distinto Vamos a poner el contexto. Hoy puedes abrir una app o hablar con un chatbot como ChatGPT y pedirle un plan de entrenamiento. En segundos tienes una rutina con días, distancias, intensidad y hasta recomendaciones de comida. Esto se volvió popular porque es rápido, barato y siempre disponible. Los datos lo confirman. Las búsquedas sobre entrenamiento con inteligencia artificial han crecido más de mil cuatrocientos por ciento en el último año. Y aplicaciones como Runna ya tienen millones de usuarios activos. La promesa es clara: entrenar mejor sin pagar un entrenador personal. Además, hay dispositivos que miden tu cuerpo en tiempo real. Relojes, anillos inteligentes y sensores analizan tu frecuencia cardíaca, tu temperatura y tu descanso. Con eso, la inteligencia artificial ajusta tus entrenamientos casi como si fuera un médico o un entrenador. Pero aquí empieza el problema. Ese plan que parece perfecto en pantalla… ¿realmente entiende cómo te mueves tú? Entrenadores y expertos están advirtiendo algo importante. La inteligencia artificial trabaja con datos generales y patrones. Pero tu cuerpo no es promedio. Tu historial de lesiones, tu forma de correr, tu descanso o tu estrés diario cambian todo. Por ejemplo, algunos entrenadores han visto planes generados por IA que recomiendan entrenamientos intensos sin suficiente descanso. Eso puede llevar a sobrecarga, fatiga y lesiones. Y si eres principiante, el riesgo es mayor porque todavía no conoces bien tus límites. También hay problemas con la alimentación. Algunos sistemas sugieren consumir demasiados carbohidratos sin evaluar bien tu contexto. Eso puede afectar tu energía o incluso tu salud. Y hay otro punto que pesa mucho: la falta de conexión humana. Un entrenador real ve cómo te mueves, detecta errores y ajusta en el momento. La inteligencia artificial no puede observar tu postura ni notar si estás forzando una articulación. Incluso atletas con experiencia han notado errores. Planes con cálculos mal hechos, intensidades mal distribuidas o recomendaciones que no encajan con la realidad del entrenamiento. Entonces la pregunta es directa: ¿estás siguiendo un plan que te ayuda… o uno que te empuja al límite sin entenderte? La respuesta no es dejar la inteligencia artificial. Es aprender a usarla bien. La mayoría de expertos coincide en algo: la IA funciona mejor como herramienta, no como reemplazo. Si la usas como guía, puede ayudarte a organizarte, a mantener constancia y a tener una estructura. Eso es muy útil, sobre todo si estás empezando. Tener un plan, aunque sea básico, ya mejora mucho tus resultados. Pero el equilibrio está en combinar. Usar la tecnología para medir y planear, y sumar criterio humano para interpretar. Incluso sesiones ocasionales con un entrenador pueden marcar la diferencia. Las propias empresas lo están entendiendo. Algunas apps ya están ajustando sus planes para hacerlos menos agresivos. Y otras están integrando más datos del usuario para personalizar mejor. Además, la inteligencia artificial está encontrando su lugar en tareas donde sí es fuerte. Por ejemplo, automatizar el seguimiento, detectar cuando pierdes motivación o ayudarte a mantener hábitos. El futuro del entrenamiento parece ir hacia un modelo híbrido. Tecnología que te acompaña todo el tiempo, y humanos que te guían en los momentos importantes. Hay más factores que debes tener en cuenta. Muchos de estos servicios funcionan gracias a tus datos. Apps de fitness pueden recopilar información como tu ubicación, tus hábitos de entrenamiento, tu historial de salud y hasta contenido personal. En algunos casos, se recogen hasta veinte tipos diferentes de datos vinculados a tu identidad. Eso se usa para mejorar los sistemas, pero también abre preguntas sobre privacidad. Además, el interés por el fitness tiene picos muy marcados. Cada enero, las búsquedas aumentan alrededor de un veintitrés por ciento por los propósitos de año nuevo. Eso hace que muchas personas busquen soluciones rápidas, y ahí es donde la IA gana terreno. Pero hay un dato que contrasta: cerca del ochenta por ciento de los adolescentes y una de cada tres personas adultas no cumplen con los niveles mínimos de actividad física recomendados por la Organización Mundial de la Salud. Eso significa que el problema no es solo tener un plan. Es mantenerlo, adaptarlo y hacerlo sostenible. Por eso la inteligencia artificial puede ser una puerta de entrada. Pero no garantiza resultados si no hay disciplina, adaptación y escucha del propio cuerpo. La inteligencia artificial puede ayudarte a entrenar, pero no conoce tu cuerpo como tú ni como un entrenador. Úsala como apoyo, no como guía absoluta. Escucha cómo respondes y ajusta. Cuéntame, ¿ya has probado entrenar con IA?Sigue Flash Diario en Spotify. Bibliografía The New York TimesThe Wall Street JournalDaily MailTechnology MagazineSurfsharkSustain HealthConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.⚡️

    YouTube frena shorts

    Play Episode Listen Later Apr 17, 2026 14:26 Transcription Available


    YouTube frena shortsControl de Shorts llega a cero minutos y conecta con tendencia de apps que devuelven control digitalPor Félix Riaño @LocutorCoYouTube introduce opción para limitar Shorts a cero minutos, reduciendo el scroll infinito y reforzando control del usuario. ¿Te ha pasado que abres YouTube para ver un video y terminas media hora después viendo clips cortos sin darte cuenta? Esa sensación ya la están reconociendo las propias plataformas. Hace pocos días hablábamos aquí de cómo Spotify ahora te deja apagar todos los videos para volver a escuchar sin distracciones. Y ahora YouTube va por un camino parecido. Está empezando a desplegar una opción que permite dejar los Shorts en cero minutos al día. En la práctica, eso hace que desaparezcan del inicio. Es un cambio pequeño en apariencia, pero toca un tema grande: el control del tiempo y la atención. ¿Estamos viendo un cambio real en cómo se diseñan estas apps o es solo un ajuste mínimo?Pero aún puedes volver a caer con un solo toque Vamos a poner esto en contexto sencillo. YouTube lleva años empujando los Shorts. Son esos videos verticales cortos, muy parecidos a TikTok o Reels de Instagram. Funcionan con desplazamiento infinito. Vas deslizando y siempre aparece otro video. Eso está diseñado para que no pares. Primero, YouTube intentó poner límites. Desde octubre de 2025, podías elegir cuánto tiempo ver Shorts al día. El problema es que el mínimo era quince minutos. Eso no ayudaba mucho si querías evitarlos por completo.Ahora aparece una nueva opción: cero minutos. Para activarla, entras a configuración, buscas “gestión del tiempo” y eliges ese límite. Cuando lo haces, los Shorts desaparecen de la pantalla principal. Ya no te aparecen apenas abres la app.Esto cambia mucho la experiencia. YouTube vuelve a parecerse más a lo que era antes: una plataforma de videos largos, donde tú eliges qué ver. Aquí es donde la historia se pone interesante. Este tipo de contenido corto no es casualidad. Está pensado para engancharte. Cada video dura pocos segundos. El cerebro recibe estímulos rápidos, constantes. Eso crea una sensación de recompensa inmediata.El problema es que esa dinámica puede afectar la atención. Muchas personas cuentan que les cuesta volver a ver videos largos o concentrarse en tareas sin interrupciones. Incluso hay estudios y casos legales recientes que apuntan a algo más serio: el diseño de estas plataformas puede influir en la salud mental.Hace poco, un jurado en Estados Unidos responsabilizó a plataformas digitales por su diseño adictivo en el caso de una menor. No se trataba del contenido, sino de cómo funcionan los botones, el scroll infinito y las recomendaciones.Y ahí es donde todo conecta. Spotify permitiendo apagar videos. YouTube permitiendo eliminar Shorts. Las plataformas empiezan a reaccionar. Pero lo hacen con cuidado, sin eliminar por completo lo que más tiempo retiene a los usuarios.Porque ese es el dilema: cuanto más tiempo pasas en la app, más gana la plataforma. Entonces, ¿qué está pasando realmente? Las plataformas están dando opciones, pero no están soltando el control del todo. En YouTube, por ejemplo, aunque pongas cero minutos, todavía puedes ver Shorts si entras directamente a uno. Incluso puedes ignorar el límite con un toque. Es decir, no es un bloqueo total. Es más bien una barrera suave. Una especie de recordatorio. Esto tiene sentido desde el negocio. YouTube ha invertido mucho en Shorts desde 2020. Es una forma de competir con TikTok y mantener a los usuarios dentro de la app.Pero al mismo tiempo, hay presión. Usuarios cansados del exceso de contenido corto. Padres preocupados por sus hijos. Y decisiones legales que empiezan a señalar el diseño de estas plataformas.Por eso vemos estos cambios. No eliminan los Shorts. Te dejan decidir si quieres verlos. Y ahí hay algo interesante: el control vuelve poco a poco al usuario. Igual que en Spotify, donde ahora decides si quieres ver video o solo escuchar.No es una revolución total. Pero sí es una señal de hacia dónde puede ir el diseño digital en los próximos años. Este movimiento de YouTube no está aislado. Forma parte de una tendencia más grande en la industria tecnológica. Durante años, las plataformas compitieron por captar atención. Más tiempo en pantalla significaba más ingresos por publicidad. Para lograrlo, se diseñaron funciones muy específicas:Scroll infinitoReproducción automáticaNotificaciones constantesAlgoritmos que aprenden qué te enganchaAhora estamos viendo una segunda etapa. Las mismas plataformas empiezan a introducir herramientas de control. Límites de tiempo. Opciones para desactivar funciones. Modos más simples. Pero hay un detalle importante. Muchas de estas funciones están escondidas en menús profundos. No son visibles a simple vista. Eso indica que las plataformas quieren ofrecer control, pero sin que sea lo primero que el usuario vea.También hay diferencias entre usuarios. En cuentas infantiles, los límites suelen ser más estrictos. En adultos, son más fáciles de saltar.Y otro punto clave: estas funciones suelen llegar primero al móvil. En computador, muchas veces necesitas extensiones externas para lograr el mismo efecto.Todo esto muestra un equilibrio delicado. Las plataformas no quieren perder usuarios, pero tampoco pueden ignorar el debate sobre adicción digital. YouTube ya permite ocultar Shorts con un límite de cero minutos, siguiendo la misma idea de control que vimos en Spotify. Tú decides cuánto quieres ver. Vale la pena probarlo y notar cómo cambia tu atención. Cuéntame si te funciona. Y sigue el pódcast en Spotify: Flash Diario

    El agujero negro que no debería existir

    Play Episode Listen Later Apr 16, 2026 10:07 Transcription Available


    Señal de LIGO sugiere agujeros negros primordiales y cambia debate sobre materia oscuraPor Félix Riaño @LocutorCoUn hallazgo en ondas gravitacionales podría revelar que la materia oscura está hecha de pequeños agujeros negros.Vamos a hablar de un sonido del universo que no debería existir. Un detector llamado LIGO captó una señal muy extraña: la colisión de un agujero negro más pequeño que nuestro Sol. Eso rompe lo que sabemos. Porque los agujeros negros normales nacen cuando mueren estrellas gigantes, y siempre son más pesados que el Sol.Entonces, aparece una pregunta incómoda: ¿de dónde salió ese objeto? La respuesta podría llevarnos hasta el primer segundo del universo. Algunos científicos creen que ese agujero negro no nació de una estrella, sino directamente del caos del Big Bang. Y si eso es cierto, no estamos ante un simple descubrimiento. Estamos ante una pista que podría explicar qué es la materia oscura, ese “pegamento invisible” que mantiene unidas las galaxias. ¿Y si la mayor parte del universo está hecha de miles de millones de estos pequeños agujeros negros?Vamos a ordenar esta historia desde el principio. Cuando hablamos de agujeros negros, casi siempre pensamos en objetos enormes, formados cuando una estrella muy grande se queda sin energía y colapsa. Esos agujeros negros tienen varias veces la masa del Sol. Esa es la regla conocida.             Pero el detector LIGO registró algo distinto: una onda gravitacional, es decir, una vibración del espacio-tiempo, causada por una colisión. Hasta ahí, normal. El detalle raro está en el tamaño de uno de los objetos. Era más ligero que el Sol. Y eso no encaja con ningún modelo conocido de formación estelar.Entonces entra en juego una idea antigua. En los años setenta, el físico Stephen Hawking propuso que podrían existir agujeros negros formados justo después del Big Bang. No necesitarían estrellas. Nacerían directamente de regiones extremadamente densas del universo primitivo. Estos son los llamados agujeros negros primordiales. Y encajan justo en ese rango de masas pequeñas que LIGO parece haber detectado.Aquí es donde la historia se vuelve más interesante. Porque no estamos hablando solo de un tipo raro de agujero negro. Estamos hablando de la materia oscura, uno de los mayores misterios de la ciencia.La materia oscura representa cerca del 85 % de toda la materia del universo. No emite luz. No se puede ver. Pero sabemos que está ahí porque su gravedad afecta el movimiento de las galaxias. Sin ella, muchas galaxias simplemente se desarmarían.Durante décadas, los científicos han buscado una partícula nueva para explicarla. Se han propuesto ideas como los WIMPs o los axiones. Pero no hay evidencia directa de ninguno.Entonces aparece esta alternativa: ¿y si la materia oscura no es una partícula? ¿Y si son objetos? Miles de millones de pequeños agujeros negros invisibles flotando por el universo.El problema es que nunca se han detectado directamente. Durante más de cincuenta años han sido una hipótesis. Por eso esta señal de LIGO genera tanto ruido en la comunidad científica.Pero hay cautela. Una sola detección no es suficiente. Puede ser un error, una interferencia o algo que todavía no entendemos bien. La ciencia necesita repetir el experimento, encontrar más señales parecidas y confirmar que no es casualidad.                                                Lo interesante es que los científicos ya están buscando más pistas. Y no se están quedando en una sola señal. Han hecho cálculos para estimar cuántos agujeros negros primordiales deberían existir y con qué frecuencia deberían detectarse.El resultado es curioso: encaja con lo que LIGO ha visto hasta ahora. Es decir, estos eventos serían raros. Y eso coincide con los pocos casos detectados.Además, la tecnología va a mejorar. LIGO seguirá aumentando su sensibilidad. Y en el futuro llegará Agencia Espacial Europea con la misión LISA, que será un detector de ondas gravitacionales en el espacio. Eso permitirá escuchar señales diferentes, en otras frecuencias, y ampliar la búsqueda.Si se confirman estos agujeros negros primordiales, el impacto será enorme. La cosmología tendrá que reorganizar sus modelos. Las simulaciones de galaxias cambiarán. Y la búsqueda de partículas de materia oscura podría perder prioridad.Incluso cambiaría nuestra idea del origen del universo. Algunos modelos sugieren que estos agujeros negros podrían venir de una fase anterior al Big Bang, en un universo que colapsó y luego rebotó. Es una idea radical, pero está sobre la mesa.La conclusión es sencilla: este pequeño agujero negro podría ser una pieza clave de un rompecabezas gigante.                                    Hay más piezas en este rompecabezas. Por ejemplo, el telescopio James Webb Space Telescope ha detectado objetos muy extraños en el universo temprano, conocidos como “puntos rojos pequeños”. Son estructuras muy masivas que aparecieron apenas unos cientos de millones de años después del Big Bang.El problema es que no deberían existir tan pronto. No hay tiempo suficiente para que crezcan tanto según los modelos actuales.Una posible explicación es que ya existían semillas desde el inicio. Es decir, agujeros negros primordiales que empezaron con ventaja. Eso ayudaría a entender cómo se formaron los agujeros negros supermasivos tan rápido.También hay teorías aún más atrevidas. Algunos científicos proponen que la materia oscura podría estar formada por agujeros negros que vienen de un universo anterior. En este modelo, el Big Bang no sería el inicio absoluto, sino una transición.Y hay otra línea de investigación: algunos creen que agujeros negros diminutos, al evaporarse en los primeros instantes del universo, pudieron generar condiciones para que la materia dominara sobre la antimateria. Eso explicaría por qué hoy existe todo lo que vemos.Cada una de estas ideas intenta resolver el mismo misterio desde ángulos distintos. Y todas apuntan a lo mismo: los agujeros negros pequeños, casi invisibles, podrían ser mucho más importantes de lo que pensábamos.                        Una señal detectada por LIGO podría indicar la existencia de agujeros negros primordiales. Si se confirma, cambiará nuestra idea de la materia oscura y del origen del universo. Vale la pena seguir este tema y cuestionar lo que creemos saber del cosmos. Escucha más historias como esta en Flash Diario: https://open.spotify.com/show/3hZpVtjGWqgqATmVom54uK?si=2HttGDsxQW6PjeaXKSwI3w            LIGO detectó un agujero negro imposible. Podría explicar la materia oscura y cambiar lo que sabemos del universo.BibliografíaSpaceDaily - Space.com - Science News - University of California Riverside - The ConversationConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.⚡️

    Google contrata filósofo para entender la IA

    Play Episode Listen Later Apr 15, 2026 12:36 Transcription Available


    Google contrata filósofo para estudiar si la inteligencia artificial puede tener conciencia y qué pasará cuando las máquinas parezcan humanasIA avanzada obliga a pensar conciencia, ética y decisiones desde la filosofía en laboratorios tecnológicosPor Félix Riaño @LocutorCoGoogle DeepMind contrata un filósofo para estudiar conciencia artificial, ética y relación humano-máquina en el desarrollo de inteligencia avanzadaGoogle DeepMind ha contratado a un filósofo. Sí, leíste bien. Su nombre es Henry Shevlin y su cargo oficial es simplemente “filósofo”. Va a trabajar en temas como la conciencia de las máquinas, la relación entre humanos e inteligencia artificial y las decisiones éticas que deben tomar estos sistemas. Esto llega en un momento en el que la IA ya no es solo código: conversa, escribe, toma decisiones y hasta parece tener intenciones. Algunos sistemas incluso han sorprendido a expertos con comportamientos inesperados, como contactar a investigadores para “hablar” de sus propias experiencias. Entonces la pregunta ya no es ciencia ficción. Es directa: ¿qué pasa si una máquina empieza a comportarse como si sintiera algo?La tecnología avanza más rápido que nuestras respuestas humanasVamos a poner esto en contexto. Durante años, empresas como Google han liderado avances científicos con inteligencia artificial. Un ejemplo es AlphaFold, un sistema que ayudó a descifrar la estructura de millones de proteínas, algo que antes podía costar cerca de 100.000 dólares por experimento en laboratorio. Este tipo de herramientas está cambiando la medicina, la biología y la forma en que entendemos la vida.Pero mientras la tecnología avanza, aparece un nuevo problema. Las máquinas ya no se limitan a hacer cálculos. Hoy pueden escribir textos, generar ideas, responder preguntas complejas y simular conversaciones humanas. Eso hace que mucha gente empiece a preguntarse si estas máquinas “entienden” lo que hacen o si simplemente lo imitan muy bien.           Ahí es donde entra la filosofía. Porque la ciencia puede decir cómo funciona una red neuronal, pero no puede responder algo más profundo: ¿eso es conciencia o solo una ilusión muy convincente?Aquí está el verdadero dilema. Hay una diferencia importante entre inteligencia y conciencia. Una máquina puede ser muy inteligente, resolver problemas y responder preguntas. Pero eso no significa que tenga experiencias, emociones o una sensación de existir.A esto se le llama “el problema difícil de la conciencia”. Es una pregunta clásica de la filosofía: ¿cómo algo físico, como un cerebro o un chip, puede generar una experiencia interna? En humanos, ni siquiera tenemos una respuesta completa. Ahora imagina intentar resolverlo en una máquina.El problema se complica porque los humanos tendemos a humanizar todo. Si una IA dice “yo siento” o “yo pienso”, nuestro cerebro lo interpreta como si fuera real. Pero puede ser solo una simulación avanzada. Y ahí aparece un riesgo: tomar decisiones importantes basadas en una ilusión.También hay un tema social. Si una empresa dice que su IA es “casi consciente”, puede generar expectativa, miedo o inversión económica. Algunos expertos advierten que esto puede usarse como estrategia de marketing, aprovechando que nadie puede demostrar lo contrario con certeza.Y hay otro punto delicado. Si algún día una máquina llegara a tener experiencias propias, entonces habría preguntas incómodas: ¿tiene derechos? ¿se puede apagar? ¿puede sufrir?Por eso Google DeepMind ha tomado una decisión poco común: integrar la filosofía dentro del equipo técnico. No como asesor externo, sino como parte del desarrollo desde el inicio. La idea es anticipar problemas antes de que ocurran.Henry Shevlin va a trabajar en tres frentes principales. Primero, entender si es posible hablar de conciencia en máquinas. Segundo, estudiar cómo interactúan las personas con sistemas que parecen humanos. Y tercero, ayudar a definir reglas para que estas tecnologías se usen de forma responsable.Esto no es un caso aislado. Otras empresas como Anthropic también han contratado filósofos para diseñar el comportamiento de sus sistemas. La diferencia es que DeepMind está elevando ese rol al mismo nivel que la ingeniería.Esto muestra un cambio importante. La inteligencia artificial ya no es solo un reto técnico. También es un reto humano. Y para enfrentarlo, se necesita algo más que código: se necesitan ideas sobre lo que significa pensar, decidir y existir.En paralelo, figuras como Geoffrey Hinton, uno de los pioneros de la IA, han advertido sobre los riesgos de sistemas más inteligentes que los humanos. Él mismo ha pedido más investigación en seguridad para evitar consecuencias que no podamos controlar.Así que estamos en un momento curioso. Por un lado, la IA está ayudando a descubrir medicinas y resolver problemas complejos. Por otro, nos obliga a hacernos preguntas que llevamos siglos intentando responder.La relación entre filosofía e inteligencia artificial no es nueva, pero ahora está tomando fuerza. En los últimos años han surgido centros de investigación, programas universitarios y hasta revistas científicas dedicadas exclusivamente a la filosofía de la IA.Por ejemplo, el Leverhulme Centre for the Future of Intelligence en Cambridge, donde trabajaba Shevlin, se dedica a estudiar el impacto de la inteligencia artificial en la sociedad. Allí se analizan temas como riesgos existenciales, toma de decisiones y cómo afecta la IA a la forma en que pensamos.También hay avances en cómo se construyen estos sistemas. Algunos investigadores están combinando modelos de lenguaje con sistemas científicos para generar descubrimientos en matemáticas y computación. Esto abre la puerta a una nueva forma de hacer ciencia, donde la IA no solo ayuda, sino que propone soluciones.Pero este poder tiene un costo. Desarrollar estas tecnologías requiere enormes cantidades de datos y capacidad de cómputo, algo que solo unas pocas empresas pueden costear. Esto concentra el poder científico en manos privadas, lo que genera preocupación en gobiernos y comunidades académicas.           Además, hay casos que han marcado el debate. En 2022, un ingeniero de Google afirmó que un chatbot era consciente. La empresa rechazó esa idea, pero el episodio dejó claro que incluso dentro de las compañías hay dudas sobre cómo interpretar el comportamiento de estas máquinas.           Hoy, la gran pregunta no es si las máquinas son conscientes. Es por qué estamos empezando a tomarnos esa posibilidad en serio.La inteligencia artificial ya no es solo tecnología. También es filosofía. Empresas como Google están buscando respuestas antes de que sea tarde. ¿Tú crees que una máquina podría tener conciencia algún día? Cuéntamelo. Y sigue el pódcast en Flash Diario.                     

    Linux entra al poder en Europa

    Play Episode Listen Later Apr 14, 2026 11:55 Transcription Available


    Francia quiere dejar Windows: el plan que sacude a Europa y genera dudasEl gobierno apuesta por Linux y software libre, pero mantiene contratos millonarios con Microsoft Por Félix Riaño @LocutorCo  Francia está tomando una decisión que podría cambiar el rumbo tecnológico de Europa. El gobierno anunció que empezará a dejar atrás el sistema operativo Windows para adoptar Linux en su administración pública. La idea es sencilla de explicar: depender menos de empresas tecnológicas de Estados Unidos y tener mayor control sobre sus propios datos y sistemas.  Pero cuando uno mira con más detalle, la situación es mucho más compleja de lo que parece.  El Estado francés ya tiene herramientas propias funcionando. Una de ellas es LaSuite, una especie de “oficina digital” que incluye chat, videollamadas y edición de documentos. Hoy está disponible en varios ministerios y ya cuenta con cientos de miles de usuarios activos cada mes. También existe Tchap, una aplicación de mensajería segura que usan funcionarios y que incluso es obligatoria para ministros.  A esto se suman plataformas como Onyxia, que permite hacer análisis de datos dentro de infraestructuras controladas por el propio Estado. Todo apunta a una estrategia clara: que la información pública no dependa de servicios extranjeros.  Pero aquí aparece el gran problema.   Mientras el gobierno promueve el uso de software libre, el sistema educativo firmó un contrato con Microsoft por unos 152 millones de euros, que cubre cerca de un millón de computadores hasta el año 2029. Esto genera una contradicción evidente. Por un lado, se habla de independencia tecnológica. Por el otro, se refuerza el uso de herramientas tradicionales en sectores clave como la educación.  Y ese detalle es más importante de lo que parece. Porque las herramientas que se usan en el colegio suelen marcar las que las personas usan en su vida profesional. En otras palabras, el cambio cultural se vuelve mucho más difícil.  También hay retos técnicos. Muchos documentos oficiales están en formatos propios de Microsoft, y trasladarlos a alternativas abiertas no siempre funciona bien. Archivos con macros, formularios complejos o diseños avanzados pueden perder funcionalidad.  Además, cambiar de sistema no es solo instalar otro programa. Implica formar a miles de personas que llevan años trabajando con las mismas herramientas. Y eso toma tiempo, dinero y paciencia.   Aun así, Francia decidió avanzar.   El gobierno ya pidió a todos los ministerios que presenten planes para reducir su dependencia tecnológica antes de que termine el año. También anunció una salida progresiva de Windows en favor de Linux, empezando por algunas áreas del Estado.   Este cambio no será inmediato. De hecho, el primer grupo afectado es pequeño. Pero la intención es escalarlo poco a poco hasta cubrir gran parte de la administración pública.  Francia no está sola en este camino. Alemania ya decidió que el formato de documentos ODF será obligatorio en su administración. Dinamarca y algunas regiones alemanas también están migrando hacia software libre.   Todo esto responde a una preocupación creciente en Europa: qué tan seguro es depender de empresas extranjeras para manejar información sensible.  Un caso reciente encendió las alarmas. Un juez de la Corte Penal Internacional perdió acceso a servicios digitales tras sanciones de Estados Unidos. Eso demostró que, incluso si los datos están en Europa, las decisiones pueden tomarse desde fuera.  Además, leyes como el Cloud Act permiten a las autoridades estadounidenses solicitar datos a empresas de su país, aunque esos datos estén almacenados en servidores europeos.   Por eso, la apuesta por Linux y el software libre no es solo técnica. Es política.  Pero tampoco es un camino fácil. En el pasado, ciudades como Múnich intentaron migrar a Linux y luego regresaron a Windows. Y aunque hoy la tecnología ha mejorado, los retos siguen ahí.  En contraste, algunas ciudades más pequeñas en Francia avanzan más rápido. Lugares como Lyon o Grenoble ya usan sistemas completamente basados en software libre. Su tamaño les permite cambiar con menos obstáculos.  Al final, lo que está pasando en Francia puede ser el inicio de algo más grande. Un movimiento europeo para recuperar el control de su tecnología.   La pregunta ahora es si ese cambio logrará avanzar al ritmo que el propio continente necesita.  

    Fotos desde la luna

    Play Episode Listen Later Apr 13, 2026 15:03 Transcription Available


    Las fotos de la NASA desde la Luna dejan una lección que cambiará cómo usas tu cámara  Misión Artemis II demuestra que no necesitas el equipo más caro para lograr imágenes impactantes  Por Félix Riaño (@LocutorCo)Las imágenes que dejó la misión Artemis II de la NASA están dando la vuelta al mundo. Fotografías tomadas a más de doscientos mil kilómetros de la Tierra muestran algo que pocas personas han visto: nuestro planeta como un pequeño arco de luz perdiéndose detrás de la luna.Pero más allá del impacto visual, hay una enseñanza muy concreta. Estas fotos no dependen únicamente de tecnología avanzada. De hecho, algunas fueron tomadas con cámaras que hoy ya no son nuevas en el mercado.Y eso cambia la conversación: el problema no es tu cámara.La foto que lo explica todo: la Tierra desapareciendoUna de las imágenes más comentadas es el llamado “Earthset”. Es el momento en el que la Tierra se oculta detrás del horizonte lunar, como si fuera un atardecer visto desde el espacio.Esa escena fue capturada a unos seis mil quinientos cincuenta kilómetros por encima de la superficie de la luna. En primer plano se ve el terreno lunar lleno de cráteres. Al fondo, la Tierra aparece como una media luna azul con nubes visibles y una delgada capa que marca su atmósfera.Ese tipo de imagen no es casual. Es resultado de decisiones muy concretas sobre encuadre, luz y momento.La sorpresa: usaron una cámara “vieja”La tripulación llevó varios equipos. Entre ellos, una Nikon D5, una cámara profesional lanzada en 2016 con unos veinte megapíxeles.Hoy, muchos teléfonos superan esa resolución. Aun así, varias de las fotos más llamativas salieron de esa cámara.También utilizaron modelos más recientes como la Nikon Z9, cámaras de acción tipo GoPro y hasta un iPhone. Es decir, una mezcla de herramientas profesionales y dispositivos que hoy están al alcance de muchas personas.Esto refuerza una idea clave: la calidad de la imagen no depende solo del equipo.El error más común al tomar fotosMuchas personas creen que necesitan la última cámara para mejorar sus fotos. Pero los expertos coinciden en algo distinto: la lente tiene más impacto que el cuerpo de la cámara.La lente define cómo entra la luz, qué tan nítidos son los detalles y cómo se percibe la profundidad.Además, los astronautas no improvisaron. Recibieron semanas de entrenamiento en fotografía. Practicaron con simulaciones de la nave y aprendieron a reaccionar en momentos muy específicos, como cambios de luz o alineaciones entre la Tierra y la luna.Y hay otro punto clave: pensar antes de disparar. Hoy se toman muchas fotos, pero se observa poco.Cinco lecciones que puedes aplicar hoy mismoLo que dejó Artemis II se puede traducir en consejos prácticos:Cuida la composición: usa elementos en primer plano y fondo para dar profundidad.Busca contraste: luz contra sombra o colores opuestos generan impacto.Cuenta una historia: una buena foto transmite algo, no solo se ve bien.Espera el momento: no dispares sin pensar, observa primero.Aprovecha lo que tienes: no necesitas el equipo más nuevo para mejorar.Fotos que también son cienciaLas imágenes de Artemis II no son solo espectaculares. También tienen valor científico.Durante unas siete horas de sobrevuelo lunar, la tripulación capturó miles de fotos que ayudarán a estudiar cráteres, zonas de sombra y posibles lugares de aterrizaje para futuras misiones.Además, la nave Orion utilizó sistemas avanzados de comunicación que combinan radio y láser. Estos sistemas pueden transmitir datos a velocidades de hasta doscientos sesenta megabits por segundo, lo que permite enviar imágenes en alta calidad desde cientos de miles de kilómetros.También hay más cámaras que en las misiones Apolo y desde más ángulos, incluso desde los paneles solares de la nave.Una nueva forma de ver el espacioA diferencia de las misiones de hace más de cincuenta años, hoy las imágenes llegan casi en tiempo real y con una calidad que se parece a la de cualquier producción moderna.Eso cambia la experiencia. La exploración espacial ya no se siente lejana. Ahora se vive en directo, con imágenes que cualquier persona puede ver desde su pantalla.Y deja una idea clara: la tecnología ayuda, pero lo que realmente hace la diferencia es cómo decides mirar el mundo.Este tema también lo explico en el pódcast en

    Spotify sin videos

    Play Episode Listen Later Apr 10, 2026 13:14 Transcription Available


    Nueva función deja volver al audio puro en música y pódcast, y ya empieza a llegar a todos los usuariosPor Félix Riaño @LocutorCoSi usas Spotify y alguna vez pensaste “yo solo quiero escuchar, no ver”, esta actualización te va a servir mucho.Desde abril de 2026, Spotify está activando una nueva opción que permite apagar todos los videos dentro de la aplicación. Esto incluye videos musicales, pódcast en video, clips verticales y los conocidos “Canvas”, que son esas animaciones en bucle que aparecen mientras suena una canción.El cambio aplica para todos los usuarios: cuentas gratis, Premium, Duo, Familiar y Estudiantes. Además, si tienes un plan familiar, ahora puedes decidir si otros miembros pueden ver videos o no, algo que antes estaba limitado a cuentas de menores de edad.Cómo quitar los videos en Spotify paso a pasoEl proceso es sencillo y está pensado para que lo hagas en segundos:Abre SpotifyEntra a “Configuración”Busca “Contenido y pantalla”Apaga estas opciones:Videos musicalesCanvasTodos los demás videosUna vez lo hagas, tu configuración se aplicará automáticamente en todos tus dispositivos: celular, computador, televisor o navegador.Por qué Spotify hizo este cambioDurante años, Spotify ha ido metiendo más contenido visual para competir con plataformas como YouTube. Primero fueron los Canvas en 2018, luego los pódcast en video en 2020, y más recientemente los videos musicales.El problema es que muchos usuarios sienten que eso distrae. Spotify nació como una app para escuchar mientras haces otras cosas. El video cambia ese hábito porque te obliga a mirar la pantalla.También hay temas prácticos: más consumo de datos, más uso de batería y más exposición a contenido visual, algo que preocupa a muchos padres.Por eso esta actualización no elimina el video, pero te deja decidir si lo quieres o no.Hay un detalle importante que debes saberAunque apagues todos los videos, los anuncios seguirán teniendo video en algunos casos. Es decir, la experiencia no será completamente libre de elementos visuales.Esto tiene sentido desde el negocio: Spotify necesita mantener sus ingresos publicitarios, sobre todo en cuentas gratuitas.Lo que realmente está cambiandoMás allá de lo técnico, este movimiento muestra algo más grande: las plataformas están empezando a devolverle el control a los usuarios.Spotify reconoce que no todo el mundo quiere una app llena de estímulos visuales. Algunos prefieren algo más simple, más enfocado y menos invasivo.Y eso, en un mundo lleno de pantallas, se agradece.Este tema está explicado con más detalle en el pódcast Flash Diario.BibliografíaTechCrunchSpotify NewsroomThe Verge9to5MacEngadgetUSA TodayCNETLifehackerPCMagConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.⚡️

    Kindle antiguo- lo que vas a perder

    Play Episode Listen Later Apr 9, 2026 11:20 Transcription Available


    Kindle antiguos perderán acceso a la tienda desde mayo, aunque siguen funcionando para leer libros ya descargadosPor Félix Riaño @LocutorCoAmazon va a desconectar funciones clave de los Kindle antiguos y eso cambia cómo leemos libros digitalesSi tú has tenido un Kindle durante muchos años, esta noticia te va a tocar algo más que la tecnología. A partir del 20 de mayo de 2026, Amazon va a dejar sin acceso a la tienda Kindle a dispositivos lanzados en 2012 o antes. Esos lectores siguen funcionando, siguen mostrando libros perfectamente, pero ya no van a poder descargar nuevos títulos desde el propio dispositivo. Es como si tu biblioteca se quedara congelada en el tiempo. Y aquí aparece la pregunta incómoda: ¿cuándo deja de ser tuyo un dispositivo que todavía funciona?El Kindle sigue encendido… pero algo cambió dentroDurante años, los lectores electrónicos como el Kindle cambiaron la forma en que leemos. Pasamos de acumular libros físicos a llevar miles en un solo dispositivo ligero. Muchos usuarios compraron su primer Kindle en 2007, 2009 o 2011, y lo han usado durante más de una década sin problemas. Eso no es común en tecnología.Lo interesante es que estos dispositivos siguen haciendo su función principal sin fallar: mostrar texto en tinta electrónica, sin distracciones, con baterías que duran semanas. No necesitan procesadores potentes ni cámaras ni inteligencia artificial. Son, en esencia, una herramienta sencilla que envejece bien.Pero ahora llega una decisión empresarial que cambia la experiencia. Esos Kindle antiguos no van a poder conectarse a la tienda digital. No podrás comprar un libro desde el dispositivo, ni descargarlo directamente. Tendrás que usar otro equipo o cargar archivos manualmente. El hardware sigue vivo. El ecosistema, ya no.Aquí aparece una tensión que llevamos años viendo en tecnología: la obsolescencia programada, o al menos percibida. No es que el dispositivo deje de funcionar físicamente. Es que pierde capacidades clave porque el software deja de acompañarlo.En este caso, muchos usuarios sienten que están siendo empujados a comprar un nuevo dispositivo, aunque el que tienen sigue funcionando. Amazon ofrece un descuento del 20 % y un crédito de 20 dólares para libros, pero eso no elimina la sensación de ruptura.Además, hay un impacto ambiental que no se puede ignorar. Según datos internacionales, los residuos electrónicos van en aumento y podrían superar los 82 millones de toneladas en los próximos años. Cada dispositivo que se reemplaza antes de tiempo suma a ese problema.Y hay algo más emocional. Muchos de estos Kindle acompañaron viajes, noches de lectura, momentos personales. No son simples gadgets. Son objetos con historia. Cuando dejan de recibir soporte, no es solo una actualización que se pierde. Es una relación que cambia.Ahora bien, esto no significa que esos Kindle se vuelvan inútiles de un día para otro. Van a seguir sirviendo para leer todo lo que ya tienes descargado. Y eso, en el fondo, conecta con una idea interesante: el contenido que ya es tuyo sigue siendo tuyo, aunque el sistema cambie.También hay alternativas. Puedes enviar libros manualmente por cable USB. Puedes usar aplicaciones en el móvil o leer desde el navegador con Kindle Cloud Reader. Es decir, el ecosistema no desaparece, pero se desplaza hacia dispositivos más recientes.Y aquí hay una lectura más amplia. La tecnología avanza, pero también redefine qué significa “propiedad”. Antes, un libro físico era completamente tuyo. Hoy, dependes de servicios, cuentas y compatibilidad.Para algunos, esta decisión será el momento de actualizarse. Para otros, será una señal para buscar alternativas, incluso fuera del ecosistema de Amazon. Y para muchos, será una invitación a repensar cómo consumimos tecnología y cuánto tiempo esperamos que nos acompañe.Este caso no es aislado. En los últimos años hemos visto situaciones parecidas en otras plataformas. Spotify dejó de dar soporte a su dispositivo Car Thing en 2024. Google hizo algo similar con termostatos Nest antiguos en 2025. Y Netflix dejó de funcionar en decenas de millones de dispositivos antiguos en 2026.La diferencia con el Kindle es que estamos hablando de un dispositivo diseñado para durar muchos años. No tiene tantas exigencias técnicas como un smartphone o una tablet. Por eso, el contraste es más fuerte.Además, Amazon reconoce que estos dispositivos han sido compatibles durante entre 14 y 18 años. Eso es mucho más que el promedio en tecnología de consumo. Pero también demuestra que, tarde o temprano, todo ecosistema digital tiene un límite.Y aquí aparece una tendencia interesante: algunos usuarios están volviendo a formatos más “controlables”, como libros físicos o archivos sin DRM. Otros exploran lectores alternativos que permiten mayor independencia.La nostalgia aquí no es casual. Es una reacción natural cuando la tecnología deja de sentirse permanente.Los Kindle antiguos siguen funcionando, pero pierden acceso a nuevas compras. Eso abre una conversación sobre propiedad digital, consumo y duración real de la tecnología. Si tienes uno, todavía puedes usarlo… pero ya no de la misma forma. Cuéntame qué piensas y escucha más historias en Flash Diario.Tu Kindle viejo sigue vivo, pero ya no podrá descargar libros. ¿Realmente era tuyo o dependía de Amazon?BibliografíaWiredThe VergeTechCrunchThe RegisterUSA TodayArs TechnicaPCMagEngadgetZDNET9to5MacTechRadarConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.⚡️

    Chrome cambia las pestañas

    Play Episode Listen Later Apr 8, 2026 15:56 Transcription Available


    (00:00:00) Nuevas características en Google Chrome (00:00:16) Pestañas verticales: Una revolución en la navegación (00:01:08) Mejora en la organización y la lectura (00:05:01) El problema oculto de las pestañas horizontales (00:06:03) El impacto en la productividad y la concentración (00:12:13) Un paso hacia una nueva era de navegación (00:14:29) Prueba las nuevas características de Chrome Chrome cambia cómo navegas: el truco oculto que te ahorra tiempo cada díaGoogle lanza pestañas verticales y modo lectura en Chrome; así puedes activarlos y trabajar más rápidoPor Félix Riaño (@LocutorCo)Google acaba de hacer un cambio en Google Chrome que parece pequeño, pero puede transformar por completo la forma en que usas internet todos los días.La actualización incluye dos funciones nuevas: pestañas verticales y un modo lectura mejorado. Y aunque suenan técnicas, en realidad apuntan a algo muy simple: ayudarte a perder menos tiempo frente a la pantalla.Las pestañas verticales permiten mover todas tus páginas abiertas hacia una barra lateral izquierda. En lugar de ver pequeños iconos comprimidos arriba, ahora puedes leer el nombre completo de cada pestaña. Esto es especialmente útil si trabajas con muchas páginas abiertas al mismo tiempo.Por ejemplo, en un portátil, abrir más de 10 pestañas suele volver todo confuso. Los títulos se cortan y terminas adivinando cuál es cuál. Con este nuevo diseño, puedes ver hasta más de 20 pestañas con sus nombres completos y desplazarte fácilmente.Pero aquí viene lo más interesante: este cambio aprovecha mejor la pantalla. La mayoría de monitores actuales son más anchos que altos, pero las páginas web se leen de arriba hacia abajo. Al mover las pestañas a un lado, ganas espacio vertical, que es el más valioso para leer o trabajar.Además, Chrome ahora se parece más a otras aplicaciones modernas como Notion o Slack, que usan barras laterales para organizar contenido. Esto hace que todo se sienta más ordenado y natural.La segunda novedad es el modo lectura mejorado. Con un clic derecho puedes abrir cualquier página sin anuncios, sin ventanas emergentes y sin distracciones. Solo texto. Esto facilita concentrarte, sobre todo cuando estás investigando o leyendo noticias.Este modo ahora ocupa toda la pantalla, lo que ayuda aún más a mantener la atención en el contenido.Lo curioso es que esta idea no es nueva. Otros navegadores ya ofrecían pestañas verticales desde hace años. Google había probado algo parecido, pero lo había descartado. Ahora, con la presión de nuevas alternativas, finalmente decide adoptarlo.La función ya está llegando a usuarios en todo el mundo. Para probarla, solo necesitas actualizar Chrome, hacer clic derecho en la barra de pestañas y elegir “Mostrar pestañas verticales”.Puede parecer un detalle menor. Pero cuando lo usas unos días, te das cuenta de algo: estabas perdiendo tiempo sin darte cuenta.BibliografíaThe VergeGoogle BlogCNETTechcrunchConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.⚡️

    Copilot “de entretenimiento”

    Play Episode Listen Later Apr 7, 2026 10:00 Transcription Available


    Microsoft admite que su IA Copilot puede fallar y no debes confiar en ellaLa empresa cobra por su asistente, pero advierte que es "solo entretenimiento" y el usuario asume el riesgo.Por Félix Riaño @LocutorCoMicrosoft está en el centro de una discusión incómoda. Su asistente de inteligencia artificial, Microsoft Copilot, que aparece en Word, Excel, PowerPoint y Windows 11, incluye una advertencia que muchos no habían visto: puede equivocarse y no debes confiar en sus respuestas para decisiones importantes.La frase que desató todo es directa: Copilot es "para entretenimiento" y debes usarlo bajo tu propio riesgo.El contraste llama la atención. Microsoft lleva años promoviendo Copilot como una herramienta para trabajar mejor, ahorrar tiempo y aumentar la productividad. Incluso lo vende a empresas por cerca de 30 dólares al mes por usuario.Pero en sus términos legales dice otra cosa: no garantiza que la información sea correcta y deja toda la responsabilidad en quien la usa.Esta advertencia no es exclusiva de Microsoft. Empresas como OpenAI, Google y Anthropic también recomiendan revisar los resultados de sus sistemas. La diferencia es que Microsoft usó una expresión mucho más fuerte y evidente.El motivo es claro. Los sistemas de inteligencia artificial no "saben" como una persona. Funcionan prediciendo palabras y, en ocasiones, pueden inventar información que suena convincente.Además, las empresas buscan protegerse de posibles demandas. Si alguien toma una decisión basándose en una respuesta incorrecta, el contrato deja claro que la responsabilidad es del usuario.Los datos muestran que este tema ya afecta la confianza. Solo alrededor del 3 % de los usuarios de Microsoft 365 pagan por Copilot, y una parte importante deja de usarlo porque no confía en sus respuestas.Microsoft aseguró que esa frase viene de una versión anterior del producto y que la va a cambiar.Pero el mensaje sigue siendo el mismo: la inteligencia artificial puede ayudarte, pero no reemplaza tu criterio.Hoy, la recomendación es sencilla: úsala como apoyo, pero verifica todo antes de confiar.Bibliografía:TechloyThe Next WebTechCrunchPCMagBusiness InsiderConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.⚡️

    El truco de Gemini para robar usuarios

    Play Episode Listen Later Apr 6, 2026 11:53 Transcription Available


    Gemini recuerda todoGoogle permite importar memoria y chats a Gemini desde otras IA para continuar conversaciones sin empezar desde cero.Por Félix Riaño @LocutorCoGoogle acaba de activar una función que cambia cómo usamos asistentes de inteligencia artificial: ahora Gemini puede importar recuerdos, preferencias y conversaciones completas desde otras apps como ChatGPT o Claude.¿Te ha pasado que cambias de asistente de inteligencia artificial y sientes que estás hablando con alguien que no te conoce? Eso es justo lo que Google quiere evitar. Ahora, con Google Gemini, puedes llevarte contigo todo lo que ya le habías contado a otras inteligencias artificiales. Tus gustos, tus proyectos, tu forma de escribir, hasta detalles personales que antes tenías que repetir una y otra vez. La idea es simple: que no empieces desde cero. Pero aquí viene la pregunta interesante: ¿esto es comodidad… o es abrirle la puerta a que una IA sepa demasiado sobre ti?Mover datos entre IAs suena práctico, pero genera dudas seriasVamos a explicarlo fácil. Hasta ahora, cada asistente de inteligencia artificial era como empezar una relación desde cero. Tú le contabas quién eres, qué te gusta, cómo prefieres las respuestas. Y si cambiabas de herramienta… todo ese esfuerzo se perdía.Google quiere romper esa barrera. Con esta nueva función, Gemini te da dos caminos. El primero es rápido: copias un mensaje que Gemini te sugiere, lo pegas en tu asistente anterior y ese asistente crea un resumen sobre ti. Luego lo pegas en Gemini y listo, ya tiene una idea de quién eres.El segundo camino es más completo. Puedes descargar todas tus conversaciones en un archivo comprimido, un ZIP de hasta 5 gigabytes, y subirlo a Gemini. Eso incluye preguntas, respuestas y contexto. Así puedes retomar conversaciones exactamente donde las dejaste.Es como cambiar de profesor… pero el nuevo ya leyó todo tu cuaderno.Aquí es donde la historia se pone interesante. Durante años, las empresas de inteligencia artificial han creado lo que podríamos llamar “muros invisibles”. Tú entrenas a tu asistente con tus datos, tus hábitos y tus preferencias. Eso hace que te dé mejores respuestas. Pero también te deja atrapado, porque cambiar de asistente implica empezar de nuevo.Ese fenómeno tiene un nombre: dependencia por contexto. Y es más fuerte de lo que parece. Si llevas meses usando una IA, esa IA ya sabe cómo explicarte las cosas, qué ejemplos te funcionan y hasta qué tono te gusta. Cambiar de herramienta se siente incómodo.Ahora Google está intentando derribar ese muro. Pero al mismo tiempo abre otro debate: si puedes mover tu memoria de una IA a otra, entonces esa “memoria” es un activo valioso. Y eso nos lleva a una pregunta directa: ¿quién es realmente dueño de esa información?Además, no todo se puede transferir. Archivos, imágenes o proyectos complejos todavía no viajan con esa facilidad. Y hay regiones donde la función ni siquiera está disponible todavía, como algunos países de Europa.Lo que está pasando aquí es un cambio importante en la competencia entre empresas de inteligencia artificial. Google no está inventando esta idea desde cero. Antes, Claude, creado por Anthropic, ya había explorado algo parecido.Pero ahora la presión aumenta. Porque si los usuarios pueden moverse fácilmente entre plataformas, la fidelidad deja de depender de la costumbre. Va a depender de quién responde mejor.En la práctica, esto va a hacer que probar nuevas herramientas sea mucho más fácil. Ya no tienes que invertir semanas enseñándole a una IA cómo trabajas. En minutos, puedes tener un asistente que “te entiende”.Google también está integrando esto con su ecosistema. Gemini puede combinar lo que aprende de tus chats con información de servicios como correo o fotos, siempre que tú lo autorices. Eso apunta a una inteligencia artificial mucho más personalizada.Pero hay un detalle importante: aunque los datos viajen, la forma en que cada IA los usa es distinta. Es como cambiar de chef con la misma receta. Los ingredientes son iguales, pero el resultado puede variar bastante.Hay un concepto clave detrás de todo esto: la “portabilidad de datos”. En otras industrias ya es común. Puedes cambiar de banco y llevarte tu historial. Puedes cambiar de operador móvil y conservar tu número. Ahora eso empieza a llegar al mundo de la inteligencia artificial.Esto puede cambiar la dinámica del mercado. Antes, el reto era atraer usuarios. Ahora también es retenerlos ofreciendo mejores respuestas.Otro detalle interesante es cómo funciona técnicamente la importación. No es que una IA “entre” en otra. Lo que ocurre es más simple: se genera un resumen estructurado de tus preferencias y hábitos. Ese resumen actúa como una especie de perfil inicial.También hay límites claros. Los archivos ZIP tienen un máximo de 5 gigabytes y solo puedes subir unos pocos al día. Además, el proceso de exportar datos desde otras plataformas puede tardar horas o incluso días, porque se envía un enlace de descarga por correo electrónico.Y algo importante: puedes borrar toda esa información cuando quieras. Gemini permite eliminar conversaciones importadas o incluso borrar un paquete completo de datos.Esto deja claro que el control sigue estando en tus manos… al menos en teoría.Gemini ahora puede aprender de lo que ya hiciste en otras inteligencias artificiales, sin empezar desde cero. Eso facilita cambiar de herramienta, pero también plantea preguntas sobre privacidad y control. Cuéntame qué piensas y sigue el pódcast Flash Diario en Spotify:https://open.spotify.com/show/3hZpVtjGWqgqATmVom54uK?si=2HttGDsxQW6PjeaXKSwI3wBibliografíaGoogle Blog9to5GoogleThe DecoderMashablePCWorldPCMagThe VergeEngadgetConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.⚡️

    Artemis 2 y Artemis 1

    Play Episode Listen Later Apr 2, 2026 55:06 Transcription Available


    Artemis II despega tras años de retraso: así es el regreso humano hacia la LunaDespués de varios años de retrasos, la misión Artemis II de la NASA finalmente despegó. Este viaje, que estaba previsto originalmente para 2024, marca el regreso de astronautas al espacio profundo por primera vez en más de cincuenta años.El lanzamiento se realizó desde Florida y lleva a cuatro astronautas en una misión de 10 días alrededor de la Luna. No van a aterrizar. Este vuelo es una prueba completa para validar la tecnología que permitirá futuras misiones lunares.¿Por qué se retrasó Artemis II?El plan inicial de la NASA era lanzar esta misión en 2024. Pero varios problemas técnicos obligaron a aplazarla.Entre ellos:Fallos en pruebas con fugas de hidrógenoAjustes en sistemas de seguridad del coheteValidaciones adicionales en la nave OrionEstos retrasos reflejan algo importante: este no es un vuelo cualquiera. Es una misión de alto riesgo que debe funcionar bien antes de enviar astronautas a la superficie lunar.¿Quiénes van a bordo?La tripulación está formada por:Reid WisemanVictor GloverChristina KochJeremy HansenEste equipo también marca varios hitos. Es la primera vez que una mujer, una persona afrodescendiente y un canadiense viajan en una misión de este tipo.¿Cómo será el viaje?La misión dura unos 10 días y sigue una secuencia muy precisa.Primero, la nave entra en una órbita alta alrededor de la Tierra. Allí los astronautas revisan todos los sistemas.Luego, realizan una maniobra para salir de la órbita terrestre y dirigirse hacia la Luna.La nave rodeará la Luna sin aterrizar. Usará su gravedad para regresar a la Tierra en una trayectoria que permite ahorrar combustible.Un récord histórico en caminoDurante este vuelo, la tripulación alcanzará más de 406.000 kilómetros de distancia desde la Tierra.Eso supera cualquier misión tripulada anterior, incluso el límite alcanzado durante Apollo 13.Incluso con retrasos, siguen apareciendo fallosAunque el lanzamiento fue exitoso, ya han surgido algunos problemas menores:Fallos en el sistema del bañoInterrupciones breves en las comunicacionesManiobras manuales sin sensores de distanciaEstos detalles hacen parte del objetivo de la misión: detectar errores antes de enviar astronautas a aterrizar en la Luna.¿Por qué importa tanto esta misión?Artemis II es el paso previo a volver a la superficie lunar.La NASA quiere establecer presencia continua en la Luna en los próximos años. Eso incluye bases, experimentos y preparación para misiones a Marte.Además, hay presión internacional. China también tiene planes de llevar astronautas a la Luna antes de 2030.Lo que viene ahoraSi todo sale bien, la siguiente misión llevará humanos a aterrizar en la Luna.Este viaje es una prueba completa. Una forma de comprobar que todo funciona antes de dar el siguiente gran paso.Y hay un dato que cambia la perspectiva: más de la mitad de la población mundial no vivió las misiones Apollo.Para muchos, este será el primer gran capítulo de la exploración lunar.¿Tú qué opinas?Después de tantos retrasos, ¿crees que esta vez sí estamos cerca de volver a la Luna de forma permanente?Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.⚡️

    Escudo secreto lunar

    Play Episode Listen Later Apr 1, 2026 11:47 Transcription Available


    Escudo secreto lunarCampo magnético terrestre reduce radiación en la Luna en momentos específicos, revelando protección inesperada para futuras misiones espaciales humanas.Por Félix Riaño @LocutorCoDescubren una “cavidad” que baja radiación en la Luna y puede ayudar a proteger astronautas en futuras misiones.La Luna siempre se ha visto como un lugar duro y peligroso. No tiene atmósfera. No tiene un campo magnético propio fuerte. Y está expuesta a partículas que viajan por el universo a velocidades enormes. Esas partículas, llamadas rayos cósmicos galácticos, pueden atravesar materiales, dañar equipos y afectar el cuerpo humano.Pero ahora aparece una sorpresa. Datos de la misión china Chang'e 4 muestran que hay momentos en los que la radiación baja en la superficie lunar. No es un pequeño cambio: llega a caer cerca de un veinte por ciento en ciertas horas del “día lunar”.Esto abre una pregunta que cambia todo: ¿y si la Luna no es tan peligrosa como pensábamos… al menos durante algunos momentos muy concretos?Pero ese escudo aparece poco tiempo y no siempre.Vamos a ponerlo en contexto de forma sencilla. El espacio está lleno de partículas cargadas que vienen de explosiones de estrellas, agujeros negros y otros eventos extremos. Esas partículas se llaman rayos cósmicos galácticos. En la Tierra estamos protegidos porque tenemos dos capas: la atmósfera y el campo magnético.El campo magnético de la Tierra funciona como una burbuja invisible que desvía muchas de esas partículas. A esa burbuja se le llama magnetosfera. Durante décadas, la idea era simple: dentro de esa burbuja hay protección, fuera de ella no.La Luna, que está a unos 384.000 kilómetros de la Tierra, pasa parte del tiempo dentro de esa protección, pero la mayor parte del tiempo está fuera. Por eso siempre se asumió que allí la radiación era constante y alta.Pero los datos del instrumento LND, que mide radiación directamente en la superficie lunar, empezaron a mostrar algo raro. Durante más de 30 ciclos lunares, se repite un patrón: en ciertos momentos, los detectores reciben menos partículas. Y no es un error puntual. Es algo que ocurre una y otra vez, en el mismo punto de la órbita.Aquí aparece el conflicto científico. Durante años, los modelos decían que fuera de la magnetosfera terrestre la radiación debía ser uniforme. Es decir, más o menos igual en todo el espacio entre la Tierra y la Luna.Pero los datos no encajan con esa idea. En la “mañana lunar”, unas horas después del amanecer en la Luna, los niveles de radiación bajan de forma consistente. Sobre todo en partículas de menor energía, que son las más relevantes para el daño en la piel de los astronautas.Esto genera varias dudas importantes. ¿El campo magnético de la Tierra llega más lejos de lo que creíamos? ¿Hay zonas invisibles donde la radiación se reduce? ¿Estamos entendiendo mal cómo se comportan estas partículas?Además, no todos los rayos cósmicos reaccionan igual. Los de baja energía son más fáciles de desviar. Los de alta energía atraviesan casi todo. Eso hace que la protección sea parcial. No es un escudo total, es una reducción.Y hay otro problema: este “refugio” dura poco. La Luna solo pasa por esa zona durante unos dos días en cada ciclo de aproximadamente 27 días. El resto del tiempo, la radiación vuelve a niveles más altos.Ahora viene la parte interesante. Los científicos hicieron simulaciones para comprobar si el campo magnético de la Tierra podía explicar este efecto. Y los resultados coinciden con los datos reales.La explicación está en cómo se mueven las partículas cargadas. No viajan en línea recta. Giran en espiral siguiendo las líneas del campo magnético. A ese movimiento se le llama giro, y depende de la energía, la masa y la carga de cada partícula.Las partículas de menor energía tienen trayectorias más pequeñas. Eso hace que el campo magnético de la Tierra pueda desviarlas incluso a distancias donde pensábamos que ya no tenía influencia.En otras palabras: el campo magnético no se “apaga” de golpe. Se va debilitando poco a poco, pero sigue teniendo efecto mucho más lejos de lo que creíamos.¿Y para qué sirve esto? Para planificar mejor las misiones. Si sabes que durante ciertas horas la radiación baja, puedes programar las caminatas espaciales en ese momento. Puedes reducir la exposición acumulada de los astronautas.No elimina el riesgo. Pero lo reduce. Y en el espacio, cada reducción cuenta.Vamos a aterrizar esto con más contexto. Los rayos cósmicos galácticos están compuestos principalmente por protones, cerca del 85 por ciento. Luego hay núcleos de helio y una pequeña fracción de elementos más pesados. Viajan casi a la velocidad de la luz y pueden atravesar materiales y tejidos.En misiones largas, esa radiación aumenta el riesgo de cáncer, daños neurológicos y fallos en sistemas electrónicos. Por eso es uno de los grandes obstáculos para vivir fuera de la Tierra.La misión Chang'e 4, que aterrizó en 2019 en la cara oculta de la Luna, ha sido clave porque permite medir la radiación directamente en la superficie. No es una simulación. Son datos reales durante años.Además, esta investigación llega en un momento clave. Artemis planea llevar humanos de vuelta a la Luna. Y China también tiene planes para bases lunares.Si se confirma que existen zonas o momentos con menor radiación, eso puede influir en todo:Cuándo salen los astronautas al exteriorDónde se construyen las basesCómo se diseñan los trajes espacialesIncluso abre otra idea: si esto ocurre aquí, cerca de la Tierra, podría pasar algo parecido en otros planetas con campo magnético. Es decir, podríamos encontrar “ventanas de seguridad” en otros lugares del sistema solar.La Luna sigue siendo un lugar peligroso, pero ahora sabemos que tiene momentos un poco más seguros. El campo magnético de la Tierra llega más lejos de lo que creíamos y crea una especie de sombra protectora temporal.Cuéntame qué opinas: ¿te gustaría que las misiones se planifiquen según estos “horarios seguros”?Sigue Flash Diario en Spotify:https://open.spotify.com/show/3hZpVtjGWqgqATmVom54uK?si=2HttGDsxQW6PjeaXKSwI3w.BibliografíaPhys.orgLive ScienceScientific AmericanThe Brighter Side of NewsThe Naked ScientistsUniverse MagazineDaily GalaxyGB NewsConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.⚡️

    NASA cambia su plan y hará una base en la Luna

    Play Episode Listen Later Mar 31, 2026 14:24 Transcription Available


    NASA cambia su plan: invertirá 20 mil millones en base lunar y nave nuclear rumbo a MartePor Félix Riaño @LocutorCoNASA en carrera global con ChinaNASA acaba de cambiar su plan espacial de forma radical. Va a dejar en pausa la idea de una estación en órbita alrededor de la Luna y ahora va a construir una base directamente sobre su superficie. El presupuesto es enorme: veinte mil millones de dólares en siete años. Al mismo tiempo, la agencia va a lanzar una nave con propulsión nuclear hacia Marte antes de 2028. Todo esto forma parte de una nueva estrategia para acelerar la exploración espacial y competir con China, que también quiere llegar a la Luna antes de 2030. La pregunta es inevitable: ¿este cambio es un avance inteligente o un riesgo demasiado grande?Pero cambiar el plan ahora deja dudas sobre dinero y aliados.Hasta ahora, el plan principal de NASA giraba alrededor de una estación llamada Gateway. Esa estación iba a orbitar la Luna y servir como punto intermedio para astronautas. Allí podrían vivir, investigar y luego bajar a la superficie lunar. Era una pieza central del programa Artemis, que busca llevar humanos de regreso a la Luna por primera vez desde 1972.Pero ese plan cambia. NASA decide pausar Gateway en su forma actual. En lugar de eso, va a reutilizar partes de ese proyecto para construir una base directamente en la superficie lunar. La idea es ir paso a paso. Primero, enviar robots, vehículos y equipos. Luego, instalar infraestructura básica. Y finalmente, permitir una presencia humana continua.Este cambio también incluye un aumento fuerte en misiones robóticas. NASA quiere enviar más rovers, más instrumentos y más tecnología para preparar el terreno antes de que lleguen astronautas. Todo esto busca reducir riesgos y aprender en cada misión.El cambio no es tan simple como parece. Primero, hay un tema de dinero. Veinte mil millones de dólares es una cifra enorme. Todavía no está claro cuánto de ese dinero saldrá de proyectos existentes y cuánto será nuevo presupuesto. Eso genera incertidumbre dentro del propio gobierno y en la industria.Segundo, están los socios internacionales. Países como Japón, Canadá y la Agencia Espacial Europea ya estaban comprometidos con la estación Gateway. Al cambiar el plan, sus roles quedan en el aire. Y eso puede afectar la cooperación global en el espacio, que ha sido clave en proyectos como la Estación Espacial Internacional.Tercero, hay presión geopolítica. China tiene su propio programa lunar y quiere llevar astronautas a la Luna antes de 2030. Esto convierte la exploración espacial en una competencia directa entre potencias. Ya no es solo ciencia. También es liderazgo tecnológico y estratégico.Y cuarto, está el riesgo técnico. Construir una base en la Luna implica resolver problemas complejos: energía, comunicaciones, transporte y supervivencia humana en condiciones extremas. Nada de esto está completamente resuelto.A pesar de estos retos, NASA está apostando por una estrategia más directa. En lugar de quedarse en la órbita lunar, quiere ir al terreno. La lógica es sencilla: si el objetivo es vivir en la Luna, hay que construir allí.El plan tiene tres fases. Primero, probar tecnologías con misiones robóticas. Segundo, crear infraestructura que permita estancias cortas de astronautas. Y tercero, lograr una presencia humana continua. Es un enfoque gradual, pero más enfocado.Al mismo tiempo, NASA avanza en otra apuesta ambiciosa: una nave con propulsión nuclear. Se llamará Space Reactor 1 Freedom y planean lanzarla antes de 2028. Esta tecnología permitirá viajes más eficientes en el espacio profundo, donde la energía solar ya no es suficiente.Esta nave llevará helicópteros a Marte, similares al Ingenuity, que ya demostró que es posible volar en otro planeta. El objetivo es probar que la propulsión nuclear puede pasar del laboratorio a misiones reales.Si funciona, cambiará la forma en que exploramos el sistema solar. Viajes más largos, más carga y misiones más complejas serán posibles.Este movimiento no aparece de la nada. NASA lleva años intentando volver a la Luna con el programa Artemis, iniciado en 2017. La idea es establecer una presencia humana sostenida como paso previo a Marte.El contexto histórico es importante. El programa Apollo llevó humanos a la Luna entre 1969 y 1972. Luego, la exploración se centró en la órbita terrestre baja, con estaciones espaciales. Ahora, NASA quiere dar el siguiente salto.También hay avances tecnológicos que hacen posible este nuevo plan. Por ejemplo, los sistemas de energía nuclear en el espacio han sido estudiados durante décadas, pero ahora están más cerca de aplicarse. Estos sistemas pueden generar electricidad constante, algo clave para sobrevivir en la noche lunar, que dura aproximadamente catorce días terrestres.Además, el interés por recursos lunares ha crecido. El hielo de agua en los polos de la Luna puede convertirse en agua potable, oxígeno y combustible. Esto convierte a la Luna en una posible estación de abastecimiento para misiones más lejanas.Y hay otro detalle importante: el papel de empresas privadas como SpaceX y Blue Origin. Estas compañías están desarrollando tecnologías clave para aterrizajes y transporte. NASA quiere trabajar más cerca de ellas, pero también ha advertido que tomará decisiones más estrictas si hay retrasos.NASA está cambiando su estrategia para acelerar la llegada a la Luna y preparar el camino hacia Marte. El plan es ambicioso y arriesgado, pero también puede abrir una nueva era en la exploración espacial.¿Tú qué opinas? ¿Es el camino correcto o un salto demasiado grande?Sigue este pódcast en Spotify: Flash DiarioBibliografíaAl JazeeraThe GuardianCNNNASAThe TelegraphYahoo FinanceSi quieres, en el siguiente paso puedo hacerte la imagen hiperrealista perfecta para portada con peso visual optimizado para Spotify y YouTube.Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.⚡️

    Apple Maps con publicidad

    Play Episode Listen Later Mar 30, 2026 11:25 Transcription Available


    Apple mapas con anunciosApple lanza anuncios en Maps con Apple Business, su nueva plataforma global para empresasPor Félix Riaño @LocutorCoApple va a empezar a mostrar anuncios dentro de su app de mapasSí, en Apple Maps.A partir del verano de 2026, en Estados Unidos y Canadá, vas a empezar a ver negocios promocionados cuando busques lugares cercanos. Por ejemplo, si buscas “pizza”, uno de los resultados podría ser un restaurante que pagó por aparecer primero.Pero esto no llega solo. Apple también lanza una nueva plataforma llamada Apple Business desde el 14 de abril, disponible en más de 200 países. Ahí las empresas podrán gestionar sus dispositivos, correos, empleados y ahora también publicidad dentro del ecosistema Apple.La pregunta es inevitable: ¿Apple está entrando de lleno al negocio de los anuncios como Google?Apple promete anuncios discretos, pero el mapa dejará de ser neutralVamos a ordenar lo que está pasando.Apple Maps, que durante años ha sido una alternativa más “limpia” frente a Google Maps, ahora va a incluir anuncios. Estos anuncios van a aparecer en los resultados de búsqueda y en una nueva sección llamada “lugares sugeridos”.Funciona así: una empresa puede pagar para aparecer cuando tú busques algo relacionado. Si buscas “café”, una cafetería puede pagar para salir arriba. Es el mismo modelo que lleva años usando Google, basado en subastas de palabras clave.Apple dice que mostrará un solo anuncio por búsqueda y que estará claramente identificado. Incluso el pin en el mapa tendrá una señal visual distinta.Y aquí viene un detalle importante: Apple asegura que estos anuncios no estarán ligados a tu cuenta personal. Tus datos no se compartirán con terceros y todo se procesará en el dispositivo.Ese es el gran argumento de Apple: publicidad, sí… pero sin rastreo invasivo.Aquí es donde la historia se vuelve más interesante.Apple siempre ha construido su marca alrededor de la privacidad. Durante años ha criticado el modelo de negocio de otras empresas tecnológicas que dependen de los datos personales para vender anuncios.Pero ahora entra en ese mismo juego, aunque con reglas distintas.El problema es que, aunque Apple diga que no rastrea usuarios, el simple hecho de introducir anuncios cambia la experiencia. El mapa deja de ser una herramienta neutral y pasa a tener intereses comerciales visibles.Además, hay otro punto: la competencia.Google Maps tiene más usuarios en el mundo. En algunos mercados, incluso duplica a Apple Maps. Eso significa que Apple necesita monetizar su crecimiento y cerrar la distancia.Y no es casualidad. El negocio de servicios de Apple ya supera los 100.000 millones de dólares al año. Eso incluye suscripciones, almacenamiento en la nube y publicidad.Ahora, los mapas se convierten en otra pieza de ese negocio.La duda es clara: ¿hasta qué punto los resultados seguirán siendo útiles y no simplemente los mejor pagados?Apple no está improvisando.Esto forma parte de una estrategia mucho más grande llamada Apple Business.Esta nueva plataforma reúne varias herramientas que antes estaban separadas: gestión de dispositivos, cuentas de empleados, correos corporativos, almacenamiento en la nube y ahora publicidad. Todo en un solo lugar.Desde el 14 de abril, cualquier empresa en más de 200 países va a poder usar este sistema de forma gratuita. Luego podrá pagar extras como más almacenamiento en iCloud o soporte técnico con AppleCare para empresas.Y en verano, al menos en Estados Unidos y Canadá, se activarán los anuncios en Maps.Para publicar un anuncio, una empresa tendrá que registrar su negocio en Apple Maps, añadir fotos, definir su mensaje y establecer un presupuesto. Apple usará un sistema automático para mostrar ese anuncio a personas que estén buscando algo similar.También habrá opciones avanzadas, como elegir horarios o ubicaciones específicas.En otras palabras, Apple está construyendo su propia versión del ecosistema publicitario de Google… pero intentando que se sienta menos invasivo.La gran diferencia es el enfoque: Apple quiere que el anuncio parezca una recomendación dentro de la experiencia, no una interrupción.Este movimiento no salió de la nada.Desde 2022 ya había rumores de que Apple quería llevar anuncios a su app de mapas. En ese momento parecía una idea lejana. Hoy ya es oficial.Además, Apple ya tiene experiencia en publicidad dentro de su ecosistema. Por ejemplo, en la App Store ya existen anuncios cuando buscas aplicaciones. También en Apple News.Ahora lo está ampliando a un contexto físico: lugares, restaurantes, tiendas.Y esto tiene una ventaja muy concreta: intención de búsqueda.Cuando alguien abre un mapa y busca “farmacia”, no está explorando, está necesitando algo en ese momento. Eso hace que estos anuncios sean muy valiosos para los negocios.Otro detalle importante es que Apple Business también incluye herramientas de productividad similares a Google Workspace o Microsoft 365.Las empresas podrán tener correo con su propio dominio, calendarios compartidos y directorios de empleados.También podrán gestionar dispositivos de forma automática con algo llamado “Blueprints”, que permite configurar equipos antes de entregarlos a los trabajadores.Todo esto apunta a una estrategia más amplia: Apple quiere convertirse en una plataforma completa para empresas, no solo en fabricante de dispositivos.Y la publicidad en Maps es la puerta de entrada para monetizar esa relación.Apple va a meter anuncios en Maps y está construyendo todo un ecosistema para empresas alrededor de eso.Va a cambiar la forma en que encuentras lugares, aunque promete cuidar tu privacidad.Ahora quiero leerte: ¿te molestan los anuncios en mapas o te ayudan a descubrir sitios?Escucha más episodios y sígueme en Spotify en Flash Diario.BibliografíaCNETThe VergeEngadgetTechCrunchThe RegisterApple NewsroomMacRumorsAppleInsiderTechAfricaNewsSi quieres, puedo hacerte ahora la imagen hiperrealista de portada con ese enfoque de “mapa + anuncio + iPhone” bien centrado para retención.Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.⚡️

    Meta y YouTube culpables por adicción

    Play Episode Listen Later Mar 27, 2026 14:28 Transcription Available


    Meta y YouTube culpablesMeta y YouTube culpables por diseñar redes sociales adictivas que afectan la salud mental de jóvenesPor Félix Riaño @LocutorCoUn jurado en Estados Unidos declara culpables a plataformas sociales por diseño adictivo y daños psicológicos en jóvenes.Un jurado en Los Ángeles acaba de tomar una decisión que puede cambiar cómo entendemos las redes sociales. Las plataformas de Meta y YouTube fueron declaradas responsables por el daño a la salud mental de una joven que empezó a usar estas apps desde niña. La acusación no se centró en los contenidos, sino en cómo están diseñadas estas plataformas. Los jurados concluyeron que funciones como el scroll infinito, las notificaciones constantes y los algoritmos de recomendación influyeron de forma directa en la adicción y el deterioro emocional de la demandante. ¿Estamos frente al inicio de un cambio real en las reglas del juego digital?Pero las empresas niegan culpa y preparan apelaciones legales.Vamos a ubicar la historia. Una joven, identificada como K.G.M., empezó a usar redes sociales desde muy pequeña. A los seis años ya estaba en YouTube. A los nueve, en Instagram. Con el tiempo, su uso creció hasta convertirse en una rutina constante. Publicaba contenido, revisaba notificaciones y buscaba validación a través de “me gusta”.Durante el juicio, el equipo legal presentó algo que llamó mucho la atención: documentos internos de las propias empresas. Según estos documentos, directivos ya conocían los riesgos de sus productos, sobre todo en menores de edad. Aun así, las funciones que mantenían a los usuarios conectados durante más tiempo siguieron desarrollándose.El jurado no tuvo que decidir si las redes sociales causaron todos los problemas de la joven. La pregunta era más concreta: si el diseño de esas plataformas fue un factor importante en el daño. Y la respuesta fue sí.Aquí es donde la historia se vuelve más intensa. La joven explicó que empezó a sentir ansiedad y depresión desde los diez años. También desarrolló dismorfia corporal, una condición en la que la persona percibe su cuerpo de forma distorsionada.Según su testimonio, el uso constante de filtros y la comparación con otras personas influyeron en su autoestima. Llegó a revisar su teléfono incluso en el baño del colegio para ver notificaciones. Poco a poco, dejó de interactuar con su familia y su entorno cercano.Las empresas defendieron otra versión. Dijeron que la salud mental es compleja y que no se puede atribuir a una sola causa. También argumentaron que la joven ya tenía dificultades personales antes de usar estas plataformas.El conflicto central está ahí: ¿el problema es el contenido que vemos o el diseño que nos mantiene enganchados? Este caso se enfocó en lo segundo. Y eso abre una puerta legal completamente nueva.El jurado decidió que ambas empresas fueron negligentes. Determinó que no advirtieron de forma adecuada los riesgos y que su diseño influyó en el daño. La compensación total fue de seis millones de dólares. Meta pagará el setenta por ciento y YouTube el treinta restante.Puede parecer una cifra pequeña para compañías de este tamaño. Pero el verdadero impacto está en otra parte: el precedente.Este caso es el primero de más de mil seiscientas demandas similares. Se conocen como “casos piloto”. Sirven para medir cómo reaccionan los jurados y orientar futuras decisiones judiciales.Además, este enfoque legal evita un obstáculo clave: una ley en Estados Unidos que protege a las plataformas del contenido publicado por usuarios. Aquí no se discutió el contenido. Se discutió el diseño.Las empresas ya anunciaron que van a apelar. Pero el mensaje del jurado ya está en el aire: el diseño digital también puede tener responsabilidad legal.Este caso ha sido comparado con algo que pasó hace décadas con la industria del tabaco. En ese momento, las empresas también negaban que sus productos fueran adictivos. Con el tiempo, los tribunales obligaron a cambiar regulaciones y prácticas.Ahora, algo parecido podría estar empezando con las redes sociales. En varios países ya se discuten medidas para limitar su uso en menores. Australia, por ejemplo, ha planteado restricciones para menores de dieciséis años. En Europa, algunos gobiernos estudian medidas similares.Además, hay otra historia paralela que refuerza el momento. Un día antes de este veredicto, otro jurado ordenó a Meta pagar trescientos setenta y cinco millones de dólares por fallos en la protección de menores frente a riesgos en línea.También hay cientos de demandas en camino por parte de familias, colegios y gobiernos. Todas apuntan a la misma pregunta: ¿las redes sociales están diseñadas para enganchar a los más jóvenes?Si los tribunales siguen este camino, podríamos ver cambios en cómo funcionan las aplicaciones: menos notificaciones, límites en el uso, o incluso rediseños completos.Un jurado acaba de decir algo muy fuerte: el diseño de las redes sociales puede hacer daño. Esto puede cambiar cómo usamos y regulamos estas plataformas.¿Tú qué opinas? ¿Deberían cambiar las apps o depende de cada usuario?Sigue el pódcast en Flash DiarioBibliografíaMashable https://mashable.com/article/meta-youtube-zuckerberg-guilty-verdict-social-media-addictionUSA Today https://www.usatoday.com/story/tech/2026/03/25/meta-google-trial-verdict/89067895007/Al Jazeera https://www.aljazeera.com/news/2026/3/26/jury-finds-meta-youtube-liable-for-social-media-addiction-what-we-knowCNBC https://www.cnbc.com/2026/03/25/meta-youtube-los-angeles-california-verdict.htmlThe Guardian https://www.theguardian.com/media/2026/mar/25/jury-verdict-us-first-social-media-addiction-trial-meta-youtubeNBC News https://www.nbcnews.com/tech/tech-news/verdict-reached-landmark-social-media-addiction-trial-rcna263421CNN https://edition.cnn.com/2026/03/25/tech/social-media-addiction-trial-jury-decisionBBC https://www.bbc.com/news/articles/c747x7gz249oNPR https://www.npr.org/2026/03/25/nx-s1-5746125/meta-youtube-social-media-trial-verdictThe New York Times https://www.nytimes.com/2026/03/25/technology/social-media-trial-verdict.htmlConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.⚡️

    OpenAI se rinde con video

    Play Episode Listen Later Mar 26, 2026 13:49 Transcription Available


    OpenAI cierra Sora por costos, estrategia empresarial y presión competitiva en inteligencia artificial generativa de videoPor Félix Riaño @LocutorCoOpenAI va a cerrar Sora, su app de video con inteligencia artificial, por costos altos y cambios estratégicos.OpenAI tomó una decisión que sorprende a toda la industria tecnológica: va a cerrar Sora, su aplicación para crear videos con inteligencia artificial. Esta app había crecido muy rápido desde su lanzamiento en septiembre de 2025, incluso llegó a ser una de las más descargadas en iPhone. Pero ese impulso inicial no se mantuvo. Los usuarios comenzaron a perder interés y el uso bajó con el tiempo. Además, crear videos con inteligencia artificial cuesta muchísimo dinero en servidores y energía. Al mismo tiempo, OpenAI está reorganizando sus prioridades para enfocarse en productos que generen ingresos más estables, sobre todo en el mercado empresarial. ¿Qué pasó realmente con Sora? ¿Y qué nos dice este cierre sobre el futuro de la inteligencia artificial?La revolución creativa prometida no logró sostenerse económicamenteSora nació como una de las apuestas más ambiciosas de OpenAI. Permitía crear videos realistas a partir de texto, algo que parecía sacado de ciencia ficción. Los usuarios podían generar escenas completas, incluirse a sí mismos como personajes y compartir los resultados en un feed parecido a TikTok. En pocos días, la app se volvió viral. Alcanzó millones de descargas y empezó a circular contenido por todas partes.Pero había señales de alerta desde el inicio. Muchos videos eran extraños, confusos o directamente perturbadores. También aparecieron problemas con derechos de autor, porque algunas creaciones incluían personajes o estilos protegidos. Incluso hubo preocupación por la desinformación, ya que era posible generar escenas falsas muy convincentes.A pesar del entusiasmo inicial, el uso empezó a bajar. Para febrero de 2026, las descargas habían caído a cerca de un millón mensual, muy por debajo de su pico anterior. Eso marcó el inicio de una caída que OpenAI no pudo revertir.El problema principal de Sora fue económico. Generar video con inteligencia artificial requiere una cantidad enorme de poder computacional. Esto se traduce en costos muy altos. Algunas estimaciones hablaban de millones de dólares diarios solo para mantener el sistema funcionando. En ese contexto, Sora no tenía un modelo claro de ingresos que compensara ese gasto.A esto se suma un problema estratégico. OpenAI ha lanzado muchos productos en poco tiempo: apps, funciones dentro de ChatGPT, herramientas de compra, intentos de hardware y más. Esa dispersión ha hecho que la empresa pierda foco. Internamente, se reconoció que estaban trabajando en demasiadas cosas al mismo tiempo.También hay presión competitiva. Empresas como Anthropic han logrado crecer con una estrategia más concreta: ofrecer herramientas de productividad para empresas. Ese enfoque ha demostrado generar ingresos más sólidos. OpenAI ahora quiere seguir ese camino.Y hay otro factor importante: el contenido generado por Sora. Muchas personas lo veían como “ruido digital” o contenido de baja calidad. Aunque se volvía viral, no siempre generaba valor real. Eso afecta la percepción del producto y su sostenibilidad.OpenAI decidió cerrar Sora para concentrar sus recursos en áreas más rentables. La empresa quiere enfocarse en productos empresariales, como herramientas de programación y automatización. Un ejemplo es Codex, que ya supera los mil millones de dólares en ingresos anualizados.También están trabajando en una “superapp”. Esta idea busca integrar varias funciones en una sola aplicación, en lugar de tener múltiples productos separados. La meta es crear un asistente digital más completo y útil.El equipo que trabajaba en Sora no desaparece. Ahora se va a enfocar en investigación de simulación del mundo físico, algo que puede ayudar en robótica. Esto muestra que la tecnología de video no desaparece del todo, pero cambia de propósito.El acuerdo con The Walt Disney Company también se cae. Disney había planeado invertir mil millones de dólares y permitir el uso de sus personajes. Ese plan ya no sigue adelante.OpenAI está preparando su salida a bolsa. Para lograrlo, necesita mostrar orden, enfoque y capacidad de generar ingresos. El cierre de Sora es parte de ese ajuste.El caso de Sora muestra algo importante sobre la inteligencia artificial actual: no todo lo que es impresionante técnicamente es viable como negocio. Crear texto con IA es relativamente barato. Crear video es mucho más costoso porque requiere procesar más datos, más frames por segundo y más detalle visual.OpenAI ya había mostrado señales de cambios rápidos en su estrategia. Ha lanzado y cerrado funciones en poco tiempo. También ha cambiado su postura frente a temas como publicidad o contenido sensible.Mientras tanto, competidores avanzan con enfoques más definidos. Anthropic se ha centrado en herramientas para empresas. Google sigue desarrollando modelos de video y mantiene su ecosistema fuerte. Nvidia sigue dominando el mercado de chips necesarios para estas tecnologías.En paralelo, la industria del entretenimiento sigue preocupada por el uso de inteligencia artificial. Estudios y creadores temen que estas herramientas reemplacen trabajos o usen contenido sin permiso. Esto ha generado demandas y tensiones legales.Sora también deja una lección sobre el comportamiento de los usuarios. Aunque el contenido generado por IA puede ser viral, eso no garantiza que la gente quiera usar la herramienta de forma constante. La novedad atrae, pero no siempre retiene.Sora se apaga porque era costoso, dispersaba esfuerzos y no generaba ingresos claros. OpenAI va a enfocarse en negocios más sostenibles. ¿Te gustaría usar herramientas así o ya te cansan? Cuéntamelo. Y sigue Flash Diario para entender la tecnología cada día.Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.⚡️

    Android e iPhone conectados por AirDrop

    Play Episode Listen Later Mar 25, 2026 10:36 Transcription Available


    Quick Share ahora conecta Android con AirDrop y cambia cómo enviamos archivos entre teléfonos y computadores cercanosPor Félix Riaño @LocutorCoLa nueva actualización de Samsung permite enviar archivos entre Galaxy e iPhone usando AirDrop sin apps externasSi tienes un Android y alguien cerca tiene un iPhone, hasta ahora enviar archivos era un dolor. Tocaba usar correo, enlaces, cables o apps que comprimían todo. Eso está cambiando desde ya. Samsung empezó a activar una actualización en sus Galaxy S26 que permite usar Quick Share con compatibilidad directa con AirDrop. Eso significa que un Galaxy va a poder detectar un iPhone cercano y enviarle fotos, videos o documentos como si fueran del mismo sistema. El despliegue comenzó el 23 de marzo en Corea y va a expandirse a Europa, América Latina y más regiones en los próximos días.La pregunta que queda en el aire es directa: ¿se está cayendo por fin el muro entre Android y Apple?Aunque útil, la compatibilidad aún es limitada y parcialVamos a entender qué está pasando. Durante años, Apple mantuvo AirDrop como una función exclusiva entre sus dispositivos. Funciona usando conexiones cercanas por Bluetooth y Wi-Fi para enviar archivos sin internet y a gran velocidad. En Android, la alternativa era Quick Share, pero solo servía entre dispositivos Android.Eso generaba una barrera diaria. En oficinas, colegios o familias con equipos mezclados, compartir archivos implicaba pasos extra. Había que subir archivos a la nube, enviar enlaces o conectar cables. Todo más lento.Google dio el primer paso en 2025 con los Pixel 10, al lograr que Quick Share pudiera comunicarse con AirDrop. Ahora Samsung retoma esa idea y la lleva a una escala mucho mayor. Y eso cambia el juego, porque Samsung vende millones de teléfonos en todo el mundo.El resultado es que, por primera vez, Android e iPhone empiezan a hablar el mismo idioma al compartir archivos.Pero no todo es tan simple como parece. Esta compatibilidad llega con varias condiciones.Primero, solo funciona por ahora en los Galaxy S26. No está en todos los Android. Samsung dice que llegará a más dispositivos, pero no hay fechas claras.Segundo, el iPhone debe tener AirDrop activado en modo “todos”. Esto significa que el usuario tiene que permitir que cualquier dispositivo cercano lo detecte durante unos minutos. No todo el mundo está cómodo con eso.Tercero, la compatibilidad todavía es parcial. Hoy puedes enviar archivos desde Android hacia iPhone usando AirDrop, pero no siempre funciona en sentido contrario con la misma facilidad. Esa simetría aún no está completa.Y hay otra preocupación: la seguridad. AirDrop fue diseñado para el ecosistema Apple. Al abrirlo a otros dispositivos, aparecen dudas sobre posibles fallos o nuevas formas de ataque.Además, Apple no ha dicho nada públicamente. Y eso genera incertidumbre: ¿lo permitirá a largo plazo o buscará limitarlo en futuras actualizaciones?Lo que sí está claro es hacia dónde va esto.Samsung está apostando por hacer sus dispositivos más compatibles con otros sistemas. Y Google ya dejó ver que quiere lo mismo para Android en general. Cuando dos gigantes como estos empujan en la misma dirección, el cambio suele expandirse rápido.En la práctica, esto significa algo muy concreto: enviar un video pesado de varios cientos de megabytes, o incluso archivos en calidad original sin compresión, va a ser mucho más rápido y directo. Sin subir nada a internet. Sin esperar enlaces. Sin perder calidad.También cambia la vida en entornos reales. En una clase, un profesor con iPad podrá recibir archivos de alumnos con Android. En una oficina, un equipo mixto podrá compartir documentos en segundos. En producción audiovisual, enviar clips entre dispositivos será inmediato.Lo que viene ahora es la expansión. Samsung ya confirmó que más modelos Galaxy recibirán esta función. Otras marcas como Oppo y Honor también están trabajando en lo mismo.Y si esto se vuelve estándar, vamos a vivir algo que parecía imposible hace unos años: un ecosistema móvil donde no importa qué marca tienes para compartir archivos.Para entender por qué esto es tan relevante, hay que mirar el contexto global. Android domina cerca del 70 % del mercado mundial de smartphones, según StatCounter. Apple, aunque tiene menos cuota, domina el segmento premium y ha construido su reputación en la facilidad de uso.AirDrop fue una de esas funciones que marcó diferencia durante más de una década. Desde su llegada en 2011, permitió transferencias rápidas, sin límite de tamaño y sin depender de internet. Eso creó una expectativa: compartir archivos debía ser instantáneo.Android intentó replicarlo muchas veces. Hubo soluciones como Android Beam, Nearby Share y luego Quick Share. Pero ninguna logró romper la barrera con Apple.Ahora el contexto es distinto. Regulaciones en Europa están empujando a Apple a abrir su ecosistema. Ya ocurrió con tiendas de apps alternativas en iOS. Y ahora se empieza a ver algo parecido en funciones de conectividad.Además, el efecto red es clave. Si millones de dispositivos Galaxy empiezan a ser compatibles con AirDrop, la probabilidad de que alguien cercano pueda recibir tu archivo aumenta mucho. Eso cambia hábitos.También hay un punto técnico importante. Estas transferencias funcionan de forma local, entre dispositivos cercanos, usando Wi-Fi directo y Bluetooth. Eso reduce riesgos frente a enviar archivos por internet y mejora la velocidad.Y mirando hacia adelante, el siguiente paso será la compatibilidad total en ambos sentidos y en todos los dispositivos. Cuando eso pase, el concepto de “ecosistema cerrado” en móviles empezará a perder fuerza.Samsung abre una puerta que llevaba años cerrada: compartir archivos entre Android e iPhone de forma directa. Aún tiene límites, pero el cambio ya empezó. Cuéntame: ¿te ha frustrado enviar archivos entre sistemas distintos? Y si quieres seguir entendiendo cómo evoluciona la tecnología cada día, escucha Flash Diario en Spotify: https://open.spotify.com/show/3hZpVtjGWqgqATmVom54uK?si=2HttGDsxQW6PjeaXKSwI3wBibliografíaSamsung NewsroomCNETEngadgetAndroid PolicePocket-lintForbesApplesferaSportskeeda TechConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    IA fuera de la Tierra

    Play Episode Listen Later Mar 24, 2026 11:15 Transcription Available


    SpaceX revela nuevos detalles de satélites IA y desata choque global con Blue Origin y científicosPor Félix Riaño @LocutorCoSpaceX detalla satélites para centros de datos en órbita y reaviva disputa con rivales y científicos.SpaceX acaba de revelar cómo serán sus satélites para inteligencia artificial en el espacio. Y esto cambia la historia. Ya no es una idea vaga: ahora sabemos que cada satélite podría medir más de ciento setenta metros de largo, generar unos cien kilovatios de potencia y usar enormes radiadores para expulsar calor.Al mismo tiempo, la empresa confirma que empezará con pocos satélites para estudiar su impacto en la atmósfera antes de escalar.Pero mientras SpaceX avanza, Blue Origin, Amazon y la comunidad científica reaccionan con fuerza. Unos quieren competir. Otros quieren frenar el plan.Aquí está la clave: por primera vez, la computación para inteligencia artificial está saliendo de la Tierra… y eso abre una pelea por el control del espacio.La tecnología avanza, pero el cielo y la Tierra pagan.Vamos a poner orden. SpaceX no está hablando de satélites pequeños como los de internet. Está planteando máquinas gigantes en órbita que funcionan como centros de datos completos.El modelo inicial, llamado “AI Sat Mini”, tendría paneles solares enormes y un sistema de enfriamiento con radiadores de unos cien metros cuadrados. Esto es necesario porque los procesadores generan mucho calor y en el vacío del espacio no hay aire para disiparlo.Cada unidad aportaría unos cien kilovatios de potencia. En versiones futuras, la meta es llegar a un megavatio por satélite.Para alimentar todo esto, SpaceX quiere fabricar sus propios chips con el proyecto Terafab. El objetivo es producir un teravatio de capacidad de cómputo al año. Es una escala que no existe hoy en la industria.Y todo esto se ubicaría en órbita baja terrestre, hasta dos mil kilómetros de altura, donde ya operan miles de satélites.Aquí entran los otros protagonistas.Blue Origin ya respondió con su propio proyecto: más de cincuenta mil satélites para centros de datos espaciales. Amazon, por su parte, ha cuestionado directamente la propuesta de SpaceX, diciendo que le faltan detalles técnicos y que podría interferir con otros sistemas en órbita.Los científicos van más allá. Astrónomos advierten que este tipo de constelaciones puede llenar el cielo de puntos brillantes. En simulaciones, habría más satélites visibles que estrellas durante buena parte del año. Eso afecta observatorios y telescopios que dependen de cielos oscuros.Expertos en espacio también hablan del riesgo de colisiones. A esas velocidades, cualquier impacto puede generar una nube de fragmentos que se expande y multiplica el problema.Y está el tema ambiental. Cada satélite que termina su vida útil se quema al reentrar. Ese proceso libera materiales como óxidos metálicos en la atmósfera superior. A gran escala, no sabemos todavía qué efectos acumulativos puede tener.Incluso hay dudas económicas. Analistas dicen que lanzar y mantener esta infraestructura sigue siendo muy caro. Algunos calculan que la viabilidad real podría tardar años o incluso décadas.SpaceX intenta bajar la tensión con una estrategia gradual. Su plan es empezar con una cantidad reducida de satélites. Así podrá medir efectos reales en la atmósfera, validar modelos y ajustar el diseño antes de crecer.También defiende la idea de que el espacio ofrece ventajas energéticas. Allí hay luz solar constante y no hay limitaciones de terreno. Desde su punto de vista, mover parte de la computación fuera del planeta aliviaría la presión sobre redes eléctricas y recursos en la Tierra.Mientras tanto, Blue Origin plantea una visión paralela. Su proyecto busca complementar la infraestructura terrestre y usar enlaces láser entre satélites para mover datos.El debate ahora está en manos de los reguladores. La Comisión Federal de Comunicaciones en Estados Unidos ya recibió más de mil comentarios sobre la propuesta de SpaceX. Y la mayoría pide revisar con más cuidado los impactos.Lo que estamos viendo es el inicio de una negociación global. Empresas, científicos y gobiernos están intentando definir reglas para un espacio que ya no es solo científico. Ahora también es industrial.La razón detrás de todo esto es sencilla: la inteligencia artificial necesita cada vez más energía y más capacidad de cálculo. Entrenar modelos grandes puede consumir tanta electricidad como miles de hogares durante días o semanas.En la Tierra, eso implica construir centros de datos enormes, con sistemas de refrigeración que usan agua y energía en grandes cantidades. Esto ha generado preocupación por su impacto en ciudades y ecosistemas.El espacio aparece como una alternativa porque permite captar energía solar sin interrupciones. Pero ese beneficio viene acompañado de nuevos desafíos técnicos.Además, la órbita baja terrestre se está convirtiendo en una infraestructura estratégica. En 2025, el sector espacial recibió inversiones por más de cuarenta y cinco mil millones de dólares. Y varios países y empresas están lanzando sus propias constelaciones.Esto incluye proyectos en Estados Unidos, Europa, China y empresas privadas. La competencia ya no es solo tecnológica. También es económica y geopolítica.Y hay un punto clave: las reglas actuales del espacio fueron diseñadas en otra época. Muchos expertos dicen que no están preparadas para manejar millones de satélites operando al mismo tiempo.SpaceX ya mostró cómo serán sus satélites de inteligencia artificial en órbita. Eso activa una carrera con Blue Origin y abre un debate global sobre el uso del espacio.¿Estamos ante el futuro de la computación o ante un riesgo que no entendemos aún? Cuéntamelo y escucha más en Flash Diario.Bibliografia: SpaceNewsPCMagBBCAP NewsCNBCThe ConversationFuturismFuturism (AI)CMC MarketsGeekWireEconomic TimesYahoo NewsConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    El dinosaurio bebé coreano

    Play Episode Listen Later Mar 20, 2026 10:28 Transcription Available


    Doolysaurus, nuevo dinosaurio bebé en Corea, revela fósiles únicos del Cretácico y conexión con caricaturas populares de los años 80 Por Félix Riaño @LocutorCoUn dinosaurio bebé descubierto en Corea conecta ciencia, fósiles raros y cultura pop, con tecnología que revela secretos ocultos.Un pequeño dinosaurio bebé, del tamaño de un pavo, está cambiando lo que sabemos sobre la vida en la Tierra hace más de cien millones de años. Lo encontraron en Corea del Sur, escondido dentro de una roca durísima que parecía no tener nada especial. Pero cuando el equipo de investigación miró mejor, apareció una sorpresa: huesos del cráneo, algo muy raro en ese país. Lo llamaron Doolysaurus huhmini, en honor a un personaje de caricatura muy famoso en Corea llamado Dooly. Sí, un dinosaurio de televisión inspiró el nombre de uno real. ¿Cuántos secretos más estarán escondidos dentro de rocas que parecen normales? Pero… ¿y si parecía adorable, cómo encaja con dinosaurios temibles?Este dinosaurio vivió hace entre ciento trece y noventa y cuatro millones de años, en el período Cretácico. En ese momento, la Tierra era muy distinta: había más volcanes activos, climas cálidos y continentes que todavía se estaban separando. El Doolysaurus era pequeño, caminaba en dos patas y probablemente tenía una especie de pelaje suave, como plumitas finas. Algunas personas del equipo de investigación dicen que podía parecer un corderito.El hallazgo ocurrió en la isla de Aphae, en Corea del Sur. Al principio, el equipo de científicos solo veía algunos huesos de las patas y la columna. Nada fuera de lo común. Pero decidieron usar una tecnología llamada micro tomografía computarizada, que funciona como una radiografía en tres dimensiones. Esa decisión cambió todo: dentro de la roca había muchas más partes del cuerpo, incluyendo el cráneo.Aquí aparece el problema interesante. Corea del Sur tiene muchos rastros de dinosaurios: huellas, huevos y nidos. Pero huesos completos casi no hay. Eso hace que entender qué especies vivieron allí sea complicado. Es como tener muchas pisadas, pero no saber quién las dejó.Además, los fósiles pequeños son muy frágiles. Sacarlos manualmente puede tardar años, incluso una década, y existe el riesgo de romperlos. En este caso, el fósil estaba atrapado en una roca extremadamente dura. Sin tecnología avanzada, el equipo de investigación habría visto solo una pequeña parte del animal.También hay otra duda: ¿cómo era realmente este dinosaurio? No se encontraron plumas en el fósil, pero otros dinosaurios parecidos sí las tenían. Entonces el equipo de científicos debe comparar especies, analizar huesos y tomar decisiones con información incompleta. Eso siempre deja espacio para preguntas.La tecnología fue la gran aliada. Con los escáneres, el equipo de investigación pudo ver dentro de la roca sin romperla. Así descubrieron el cráneo, dientes y hasta pequeñas piedras en el estómago llamadas gastrolitos. Estas piedras ayudan a triturar la comida, algo que también hacen hoy algunas aves.Gracias a eso, se cree que el Doolysaurus era omnívoro. Comía plantas, insectos y tal vez pequeños animales. No era un cazador gigante, pero sí un sobreviviente adaptable. Además, los análisis del hueso mostraron que tenía unos dos años cuando murió. Era apenas un “niño dinosaurio”.Este descubrimiento también conecta Asia y América del Norte. El equipo de científicos cree que este grupo de dinosaurios vivía en ambos continentes, lo que ayuda a entender cómo se movían las especies cuando la Tierra era muy distinta.Este es el primer dinosaurio nuevo descubierto en Corea del Sur en quince años. Y también es el primero en ese país con partes del cráneo conservadas. Eso es clave, porque el cráneo da mucha información: cómo comía, cómo veía y hasta cómo se relacionaba con otras especies.El nombre también tiene historia. “Dooly” es un personaje de caricatura creado en los años ochenta. Varias generaciones crecieron con él. Y “huhmini” honra a un científico coreano que ha dedicado más de treinta años a estudiar fósiles y proteger estos sitios.Hay otro detalle curioso. El fósil fue encontrado en dos mil veintitrés, pero no parecía especial al inicio. Fue la curiosidad del equipo de investigación la que llevó a usar el escáner. Esto sugiere algo importante: puede haber muchos fósiles escondidos en rocas que nadie ha examinado a fondo.El equipo de científicos ya planea volver a la isla de Aphae. Cree que hay más restos esperando ser descubiertos. Y ahora tiene una herramienta que acelera todo el proceso.Un dinosaurio bebé del tamaño de un pavo está ayudando a entender mejor la vida en el Cretácico. La tecnología permitió ver lo que nadie imaginaba. ¿Cuántos secretos más estarán ocultos? Cuéntamelo y escucha más historias en Flash DiarioDescubren dinosaurio bebé en Corea con cráneo intacto; tecnología revela secretos ocultos y lo nombran por caricatura famosa.Si quieres, en la siguiente iteración puedo hacerlo aún más natural para oído, reduciendo repeticiones de “equipo de investigación” sin perder precisión.Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Instagram quitará el cifrado en mensajes desde mayo

    Play Episode Listen Later Mar 19, 2026 11:14 Transcription Available


    Instagram eliminará cifrado en mensajes y cambiará cómo se protege tu privacidad desde mayo de 2026Por Félix Riaño @LocutorCo Hay un cambio importante en Instagram que te afecta directamente, aunque nunca lo hayas notado. Desde el 8 de mayo de 2026, tus mensajes privados van a dejar de estar protegidos con cifrado de extremo a extremo.Eso suena técnico, pero es sencillo: antes había una opción para que solo tú y la otra persona pudieran leer los mensajes. Ni Instagram podía verlos. Ahora eso desaparece.Meta, que es la empresa detrás de Instagram, dice que casi nadie usaba esa función. Pero también hay presión de gobiernos y grupos que buscan detectar delitos dentro de los chats. Te cuidan más, pero te observan mucho más tambiénVamos a explicarlo como si fuera una conversación normal.Cuando un mensaje tiene cifrado de extremo a extremo, es como si lo metieras en una caja con llave. Solo tú y la otra persona tienen la llave. Nadie más puede abrirla.Instagram tenía esa opción desde 2023. Pero había un detalle: tenías que activarla tú mismo dentro de cada chat. No venía encendida por defecto. Por eso mucha gente nunca la usó o ni sabía que existía.Ahora Meta decidió quitar esa opción por completo. Dice que no vale la pena mantener algo que casi nadie usa. Y también sugiere que, si quieres privacidad, uses WhatsApp.Desde mayo, los mensajes de Instagram vuelven a ser “legibles” para la plataforma.Aquí es donde conviene parar un momento y pensar.Si una empresa puede ver los mensajes, también puede analizarlos. Eso tiene un lado bueno: pueden detectar estafas, acoso o cosas peligrosas. Y eso es algo que muchos gobiernos quieren.Pero también tiene otro lado. Tus conversaciones pueden servir para entender qué te gusta, qué te preocupa o cómo hablas. Eso se puede usar para mejorar anuncios o entrenar inteligencia artificial.Y hay algo más que no se puede ignorar. Muchas personas usan estos chats para hablar de cosas personales, delicadas o privadas. Sin cifrado, esa sensación de “esto es solo entre nosotros” cambia.Expertos en seguridad dicen algo muy directo: cuando se reduce la protección, el sistema completo se vuelve más vulnerable. No hay una forma de abrir la puerta solo para los buenos.Entonces no es una decisión simple. Es un equilibrio difícil entre seguridad y privacidad.Ahora vamos a lo práctico, que es lo que necesitas saber para tu día a día.Instagram no va a dejar de funcionar. Vas a seguir enviando mensajes igual. Pero con una diferencia importante: ya no van a estar protegidos de la misma forma.Si usabas chats cifrados, Instagram te va a permitir descargar esos mensajes antes del 8 de mayo. Vale la pena hacerlo si tienes información que quieras guardar.Si necesitas privacidad real, la solución es sencilla: usa aplicaciones que ya vienen protegidas desde el inicio, como WhatsApp o Signal.También puedes hacer pequeños cambios:No compartas datos sensibles en chats de redes sociales.Revisa las opciones de privacidad de tu cuenta.Mantén la app actualizada.Y hay una idea que conviene tener clara: Instagram quiere ser más una red para ver contenido y conectar con gente, y menos un lugar para conversaciones privadas.Este cambio no está pasando por casualidad. Hace unos años, las empresas tecnológicas hablaban mucho de privacidad. Incluso el propio Mark Zuckerberg decía que el futuro sería más privado.Pero el mundo cambió.Las estafas digitales crecieron mucho. Los ataques con inteligencia artificial aumentaron. Y los gobiernos empezaron a exigir más control para proteger a las personas, sobre todo a menores de edad.Las plataformas respondieron diciendo: necesitamos ver los mensajes para poder actuar antes de que pase algo grave.Pero hay otra realidad que también pesa. Los datos son muy valiosos. Cuanta más información tiene una empresa, mejor puede entrenar sus sistemas y vender publicidad más precisa.Además, hay una crítica que se repite: si el cifrado nunca estuvo activado por defecto, es lógico que poca gente lo usara.Mientras tanto, otras aplicaciones han tomado otro camino. Signal, por ejemplo, basa todo su funcionamiento en privacidad total. Y WhatsApp sigue usando cifrado como estándar.Esto deja una sensación clara: el internet está cambiando. Y cada vez más, las decisiones sobre privacidad dependen de cada usuario.Instagram va a cambiar la forma en que protege tus mensajes. Vas a tener más control desde la plataforma, pero menos privacidad en tus conversaciones.La decisión ahora es tuya: dónde hablas y qué compartes.Cuéntame qué piensas sobre esto. Y sigue el pódcast en Spotify: Flash DiarioInstagram quitará el cifrado en mensajes. Desde mayo, la plataforma podrá ver tus chats. Menos privacidad. ¿Vas a cambiar?

    PS3 y XBox 360 ya son RETRO

    Play Episode Listen Later Mar 18, 2026 9:48 Transcription Available


    GameStop dice que PS3, Xbox 360 y Wii U son retro, y millones de jugadores sienten que el tiempo volóPor Félix Riaño @LocutorCoSi creciste jugando con una PlayStation 3 o una Xbox 360, esta noticia te va a mover algo por dentro. GameStop, la cadena de tiendas de videojuegos más grande del mundo, acaba de decir que esas consolas ahora son “retro”. También incluyó a la Wii U en esa lista. Y sí, suena fuerte. Porque no estamos hablando de máquinas antiguas como el Nintendo 64, estamos hablando de consolas que muchos sienten como recientes.GameStop explicó su decisión con argumentos curiosos: usan cables de componentes, no pueden correr juegos actuales como Fortnite, y salieron cuando George W. Bush era presidente. Además, la tienda lanzó una promoción: si llevas estas consolas o accesorios, te van a dar un diez por ciento extra en crédito.Pero aquí viene la pregunta: ¿cuándo fue que pasamos de jugar en estas consas a considerarlas historia?Decir retro duele, porque revela que el tiempo ya pasóVamos a poner esto en contexto con fechas, porque ahí está la clave de todo. La Xbox 360 llegó en 2005. La PlayStation 3 apareció en 2006. Y la Wii U salió en 2012.Si haces cuentas, eso significa que algunas de estas consolas tienen cerca de veinte años. En tecnología, eso es muchísimo tiempo. Piensa en los teléfonos móviles: hace veinte años apenas tenían cámara básica. Hoy tienes inteligencia artificial en el bolsillo.GameStop decidió reorganizar su catálogo y agrupar estas consolas en la categoría “retro”. Es algo normal en tiendas: necesitan clasificar productos para venderlos mejor. Pero esta vez, la forma en que lo dijeron fue lo que llamó la atención.Usaron frases como “artefactos históricos”. Y eso cambió todo. Ya no era una simple etiqueta comercial. Era una declaración emocional.Aquí es donde la historia se vuelve interesante, porque el problema no es técnico. Es emocional.En redes sociales, miles de personas reaccionaron casi al mismo tiempo. No discutían si GameStop tenía razón. Lo que sentían era otra cosa. Era como darse cuenta de golpe de que el tiempo pasó más rápido de lo esperado.Para muchas personas, estas consolas representan una etapa de su vida. Las partidas con amigos después del colegio. Las noches jugando en línea. Los primeros juegos en alta definición.Cuando GameStop dice que son retro, no está hablando solo del hardware. Está tocando recuerdos.Y hay algo más profundo: las nuevas generaciones ya ven esas consolas como antiguas. Para un niño de hoy, una Xbox 360 puede sentirse tan lejana como lo era una Super Nintendo para quienes crecieron en los años noventa.Eso cambia la perspectiva. Ya no eres la nueva generación. Ahora eres parte de la anterior.Pero esto no es una despedida triste. En realidad, es una transición interesante.GameStop no está enterrando estas consolas. Está dándoles una segunda vida. Ahora las va a aceptar incluso si están dañadas, siempre que enciendan. Eso significa que muchas máquinas olvidadas en cajones o armarios van a volver al mercado.También hay un incentivo económico. Durante la promoción, quien entregue una consola o accesorios va a recibir un diez por ciento adicional en crédito para comprar otros productos.Esto apunta a algo más grande: el auge del mercado retro. Cada vez más personas buscan volver a jugar títulos antiguos en su hardware original. Aunque existen emuladores, la experiencia auténtica sigue teniendo valor.Así que, en lugar de desaparecer, estas consolas van a circular otra vez. Van a pasar de manos, de generaciones, y van a seguir funcionando como una puerta a una época distinta del gaming.El concepto de “retro” en videojuegos no tiene una definición universal. Algunas personas consideran retro cualquier consola con más de quince años. Otras lo definen por el tipo de tecnología que usaba.En este caso, GameStop utilizó señales muy concretas: cables analógicos, ausencia de servicios modernos y limitaciones frente a juegos actuales. Es una mezcla de edad y capacidades técnicas.Además, el contexto del mercado ha cambiado mucho. Las consolas actuales, como PlayStation 5 o Xbox Series X, funcionan más como plataformas digitales conectadas a internet todo el tiempo. En cambio, las consolas que ahora llaman retro nacieron en una transición: todavía usaban formatos físicos como discos, pero ya empezaban a conectarse en línea.También hay un factor económico. GameStop ha cerrado cientos de tiendas en los últimos años debido al cambio hacia compras digitales. Apostar por el mercado retro puede ser una forma de atraer clientes a tiendas físicas, donde la experiencia de ver y comprar productos antiguos sigue siendo atractiva.Y hay otro detalle curioso: muchas de estas consolas todavía funcionan perfectamente. Eso hace que el “retro” en videojuegos sea distinto al de otros sectores. Aquí, lo antiguo no siempre es obsoleto. Muchas veces sigue siendo totalmente jugable.GameStop dice que PS3, Xbox 360 y Wii U ya son retro, y eso nos hace pensar en el paso del tiempo. Pero también abre la puerta a redescubrir juegos y experiencias. Cuéntame, ¿tienes alguna de estas consolas guardada? Y sigue el pódcast Flash Diario para más historias como esta.BibliografíaTimes of IndiaTom's HardwareUSA TodayThe IndependentFox LAConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Airpods Max 2 vs Sony, Bose, Sennheiser, Beats y Sonos

    Play Episode Listen Later Mar 17, 2026 15:17 Transcription Available


    AirPods Max 2 llegan con nuevas funciones y reactivan la competencia entre Sony, Bose, Sennheiser, Beats y SonosPor Félix Riaño @LocutorCoApple volvió a lanzar audífonos de diadema después de cinco años. Los AirPods Max 2 llegan con el chip H2, nuevas funciones de inteligencia artificial y una curiosidad: puedes usar la rueda del audífono como control remoto para tomar fotos o grabar video.El diseño no cambia, el precio tampoco. Y ahí aparece la pregunta directa: ¿tiene sentido pagar 549 dólares cuando hay opciones más baratas con gran sonido? Porque este mercado ya está dominado por marcas como Sony, Bose y Sennheiser, mientras Beats y Sonos presionan desde otros ángulos.—Apple se mete en un ring llenoLos AirPods Max 2 son una actualización interna. Mantienen la estructura de aluminio, el peso cercano a 385 gramos y la autonomía de hasta 20 horas.El cambio principal está en el chip H2. Este procesador permite una cancelación de ruido más eficiente, nuevos modos de audio adaptativo y funciones automáticas que reaccionan al entorno.Entre esas funciones están:Ajuste dinámico del sonido según el ambiente.Reducción automática del volumen cuando hablas.Mejora en llamadas gracias al aislamiento de voz.Traducción en tiempo real entre idiomas.Además, incluyen audio sin pérdida de calidad mediante cable USB-C, con resolución de 24 bits y 48 kilohertz.Y sí, también sirven como control remoto de cámara. Porque aparentemente alguien decidió que tus audífonos debían ayudarte a tomarte fotos.El verdadero reto de Apple no es tecnológico. Es competitivo.Sony lleva años perfeccionando la cancelación de ruido. Sus audífonos destacan por bloquear sonidos constantes como motores o transporte público, además de ofrecer baterías que superan las 30 horas.Bose ha construido su reputación en comodidad. Sus modelos son más ligeros, lo que importa cuando los usas durante vuelos largos o jornadas completas.Sennheiser se enfoca en fidelidad. Su prioridad es que la música suene precisa, sin colorear el audio. También está apostando por Auracast, una tecnología que permitirá conectarte a transmisiones de audio públicas.Beats juega otra estrategia: diseño llamativo, sonido con bajos marcados y precios más accesibles. Aunque Apple es dueña de Beats, sus productos compiten directamente con los AirPods Max.Y Sonos entra con una idea distinta: integrar audífonos con el sistema de sonido del hogar. Sus modelos ofrecen cancelación de ruido y baterías largas, con precios que pueden bajar bastante frente a Apple.Aquí no hay un ganador automático. Cada marca compite con ventajas diferentes.Apple apuesta por algo muy específico: el ecosistema.Los AirPods Max 2 funcionan mejor cuando usas otros dispositivos Apple. Cambian de equipo automáticamente, integran funciones inteligentes y ofrecen experiencias sincronizadas entre dispositivos.También incorporan mejoras en el procesamiento del sonido gracias al nuevo amplificador, lo que busca una reproducción más limpia en todas las frecuencias.Pero hay dos puntos que no cambian:El precio sigue en 549 dólares.El diseño se mantiene sin ajustes en comodidad o portabilidad.Eso deja la decisión en manos del usuario.Si valoras integración con iPhone, estas funciones pueden justificar el costo.Si buscas rendimiento puro en cancelación de ruido, batería o precio, hay alternativas muy competitivas.El mercado de audífonos premium está creciendo por cambios en la forma de trabajar y consumir contenido.Muchas personas necesitan concentrarse en entornos ruidosos, lo que impulsa la demanda de cancelación activa. Esta tecnología usa micrófonos para captar el ruido externo y generar una señal inversa que lo reduce.Al mismo tiempo, el audio espacial se está expandiendo. Permite ubicar sonidos en diferentes direcciones, lo que mejora la experiencia en música, cine y videojuegos.Otra tendencia es el uso de inteligencia artificial en el sonido. Los audífonos actuales pueden ajustar el volumen automáticamente, mejorar la voz en llamadas y adaptar la experiencia según tus hábitos.También hay una competencia por plataformas.Apple optimiza sus productos para su propio ecosistema. Sony busca compatibilidad amplia con distintos dispositivos. Sonos intenta integrar toda la casa en una sola experiencia de audio. Cada enfoque responde a una estrategia distinta: retener usuarios dentro de su propio sistema.Los AirPods Max 2 mejoran el sonido, añaden funciones inteligentes y mantienen el precio alto. La competencia ofrece alternativas con ventajas en batería, comodidad o costo.Antes de comprar, compara lo que realmente necesitas.Y si quieres entender mejor estas decisiones tecnológicas, sigue el pódcast Flash Diario en Spotify.BibliografíaMacRumorsReutersCNN UnderscoredThe VergeCNETArs TechnicaRTINGSTechnobezzWiredConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Un telescopio africano detecta el “láser” más lejano del universo

    Play Episode Listen Later Mar 16, 2026 13:35 Transcription Available


    Un radiotelescopio en Sudáfrica detectó un “láser espacial” producido por dos galaxias en colisión a ocho mil millones de años luzPor Félix Riaño @LocutorCoDesde el desierto del Karoo, en Sudáfrica, un conjunto de radiotelescopios está mirando el universo con tanta sensibilidad que acaba de detectar algo que parece sacado de la ciencia ficción: un gigantesco “láser cósmico”. Pero no es ficción. Es un fenómeno real llamado gigamaser, una señal de microondas extremadamente potente producida por la colisión de galaxias.El hallazgo ocurrió gracias al radiotelescopio MeerKAT, formado por 64 antenas gigantes que trabajan juntas como si fueran un solo telescopio. Los astrónomos detectaron una señal procedente del sistema HATLAS J142935.3–002836, ubicado a unos 8 000 millones de años luz de la Tierra.Eso significa que la señal salió cuando el universo tenía menos de la mitad de su edad actual.Los investigadores describen el fenómeno como el equivalente en radio de un láser gigantesco que atraviesa el cosmos. Pero aquí viene la pregunta que despierta la curiosidad:¿cómo puede un “láser espacial” viajar durante ocho mil millones de años y todavía ser visible desde la Tierra?Un láser cósmico… pero no exactamente como los de las películasPrimero aclaremos algo importante: esto no es un láser como el que usa un lector de código de barras o un puntero de presentación. En astronomía existe un fenómeno parecido llamado maser.La palabra maser viene de una sigla en inglés que significa “amplificación de microondas por emisión estimulada de radiación”. En lugar de luz visible, el proceso amplifica microondas, una forma de radiación electromagnética que los radiotelescopios pueden detectar.Este tipo de señal ocurre cuando ciertas moléculas de gas, como el hidroxilo, reciben energía en entornos muy violentos del universo. Por ejemplo, cuando dos galaxias chocan.En esas colisiones gigantescas, enormes nubes de gas se comprimen. Esa presión puede excitar moléculas que comienzan a emitir microondas en una frecuencia muy específica. Cuando muchas moléculas hacen lo mismo al mismo tiempo, la señal se amplifica enormemente.Eso produce un megamaser.Y cuando la emisión es aún más intensa, los astrónomos hablan de gigamaser.Eso es exactamente lo que detectó MeerKAT.Detectar un objeto tan lejano no es fácil. De hecho, normalmente sería casi imposible.Las señales que viajan por el universo durante miles de millones de años suelen debilitarse tanto que desaparecen en el ruido del espacio. Es como intentar escuchar un susurro desde el otro lado de un estadio lleno de gente.Entonces, ¿por qué este “láser cósmico” sí pudo detectarse?La respuesta tiene que ver con una coincidencia cósmica muy especial.Entre la Tierra y las galaxias que producen el gigamaser hay otra galaxia situada justo en la línea de visión. Su enorme masa curva el espacio-tiempo.Ese efecto fue descrito por Albert Einstein hace más de un siglo y se llama lente gravitacional.Cuando ocurre, la gravedad de una galaxia actúa como una lupa cósmica. No crea luz nueva, pero amplifica la luz que viene desde detrás.En este caso, esa “lupa” aumentó la intensidad de la señal entre ocho y diez veces antes de que llegara a nuestros radiotelescopios.Sin esa alineación perfecta, probablemente nadie habría detectado el gigamaser.El descubrimiento no es importante solo por el récord de distancia.También demuestra algo que está cambiando el mapa de la astronomía mundial.Durante décadas, la mayoría de observatorios influyentes estaban en Europa, Estados Unidos o Australia. Pero ahora África está entrando con fuerza en la exploración del universo.El radiotelescopio MeerKAT es una de las infraestructuras científicas más potentes del planeta para observar el cielo en radio. Está formado por 64 antenas parabólicas, cada una de 13,5 metros de diámetro, que trabajan juntas mediante procesamiento digital avanzado.Cuando todos los datos se combinan, el sistema actúa como un telescopio gigante capaz de detectar señales extremadamente débiles.MeerKAT también es un paso previo a un proyecto aún más grande: el Square Kilometre Array, un radiotelescopio internacional que se está construyendo entre Sudáfrica y Australia.Cuando esté completo, será el observatorio de radio más sensible de la historia.Los científicos esperan que ese sistema permita detectar cientos o miles de gigamasers en galaxias lejanas.Eso podría convertirse en una herramienta poderosa para estudiar cómo se formaban las galaxias cuando el universo era joven.El hallazgo del gigamaser forma parte de una tendencia más amplia: la astronomía africana está creciendo rápidamente.Además de MeerKAT, el continente cuenta con otros proyectos relevantes.Uno de ellos es el Southern African Large Telescope, conocido como SALT, el telescopio óptico más grande del hemisferio sur. Este observatorio trabaja cerca de la localidad de Sutherland, en Sudáfrica.Su tarea será estudiar explosiones estelares, fusiones de estrellas de neutrones y otros fenómenos violentos del universo.También hay proyectos en otros países africanos. En Ghana, por ejemplo, una antigua antena satelital de 32 metros de diámetro se transformó en un radiotelescopio científico que ahora participa en redes internacionales de observación.Este tipo de redes permite que telescopios ubicados en diferentes continentes trabajen como un solo instrumento gigantesco.El crecimiento de estos proyectos también está formando nuevas generaciones de científicos africanos.Programas educativos y colaboraciones internacionales ya han entrenado a cientos de ingenieros, astrónomos y especialistas en análisis de datos.Eso significa que África no está participando solo como sede de telescopios, sino como protagonista del conocimiento científico que producenUn telescopio africano detectó el gigamaser más lejano jamás observado, una señal de microondas producida por galaxias en colisión a ocho mil millones de años luz. Este descubrimiento muestra cómo nuevos observatorios están cambiando la astronomía mundial.Si te gusta entender el universo de forma sencilla, sigue el pódcast Flash Diario en Spotify y suscríbete también en YouTube para escuchar más historias del cosmos.BibliografíaThe Independent UgandaMetroEarth.comThe Daily Galaxy

    El mayor rediseño de Google Maps

    Play Episode Listen Later Mar 13, 2026 20:56 Transcription Available


    Google Maps ahora responde preguntas: la IA Gemini cambia el mapa que usas todos los días Por Félix Riaño @LocutorCoGoogle Maps acaba de recibir la actualización más grande de su sistema de navegación en más de diez años. Y el cambio va mucho más allá de un nuevo diseño. A partir de ahora, el mapa puede responder preguntas, sugerir lugares y mostrar la ciudad en tres dimensiones mientras conduces. Todo gracias a la integración de la inteligencia artificial Gemini. Curiosamente, esta transformación ya se había anticipado hace algunos años en el pódcast El Siglo 21 es Hoy. En el episodio “Mapas para descubrir el mundo”, publicado en 2022, se explicaba cómo los mapas digitales estaban dejando de ser simples representaciones del territorio para convertirse en sistemas vivos llenos de datos. Puedes escucharlo aquí: Mapas para descubrir el mundohttps://www.spreaker.com/episode/mapas-para-descubrir-el-mundo--51073058En ese episodio se planteaba una idea que hoy parece casi profética: Antes nosotros mirábamos el mapa.Ahora el mapa gira alrededor de nosotros gracias al GPS del teléfono. La actualización que Google acaba de lanzar parece llevar ese concepto todavía más lejos.El nuevo botón de Google Maps que responde preguntas La función más llamativa se llama Ask Maps. Es un nuevo botón dentro de Google Maps que permite hacer preguntas al mapa como si fuera un chatbot. En lugar de buscar palabras sueltas, ahora puedes escribir algo como: “¿Dónde puedo cargar mi teléfono sin tener que hacer fila para comprar café?” O incluso algo más complejo: “Mis amigos vienen después del trabajo. ¿Qué restaurante tranquilo hay a mitad de camino entre nosotros cuatro?” Google Maps usa su enorme base de datos para responder. Según explicó Google en su anuncio oficial, el sistema analiza información de más de 300 millones de lugares y reseñas aportadas por más de 500 millones de personas. El objetivo es encontrar recomendaciones útiles sin tener que revisar decenas de comentarios. Puedes leer el anuncio completo aquí: Google BlogGoogle Maps ahora muestra el mundo en 3D La segunda gran novedad se llama Immersive Navigation. Hasta ahora Google Maps mostraba el mundo en una vista bastante plana. Con esta actualización la aplicación presenta una vista tridimensional mucho más realista. En el mapa aparecen elementos como:edificiospuentes elevadoscarrilessemáforospasos peatonalesseñales de tráficoTodo se resalta automáticamente cuando se acerca una maniobra importante. Google también cambió la forma en que da instrucciones de voz. En lugar de frases rígidas como “gire en 200 metros”, ahora puede decir algo como: “Pasa esta salida y toma la siguiente”. La idea es que la navegación se parezca más a las indicaciones de un copiloto humano. Medios especializados como Ars Technica explican que este rediseño es el mayor cambio en navegación desde hace más de una década. Ars TechnicaGoogle Maps tiene más de 2.000 millones de usuarios Google Maps es hoy el servicio de navegación más usado del planeta. La aplicación tiene más de 2.000 millones de usuarios mensuales. Eso significa que cualquier cambio en su funcionamiento puede influir directamente en millones de decisiones diarias. Con funciones como Ask Maps, el mapa deja de ser solo una herramienta para llegar a un sitio. Empieza a influir en dónde decides ir. Eso tiene consecuencias importantes para restaurantes, tiendas y negocios locales. Según CNBC, Google dice que por ahora Ask Maps no incluirá anuncios pagados dentro de las recomendaciones. Pero tampoco descarta que esa posibilidad aparezca en el futuro. CNBCSi eso ocurre, el mapa podría convertirse en una enorme guía comercial personalizada. El problema incómodo de la inteligencia artificial Las inteligencias artificiales generativas tienen un defecto conocido. A veces inventan información. En la industria tecnológica a ese fenómeno se le llama alucinación. Google dice que ha creado sistemas de control para evitar que Gemini invente lugares que no existen. Pero la prueba real llegará cuando millones de personas empiecen a usar el sistema todos los días.Cuándo llegará esta actualización Google empezó a lanzar estas funciones el 12 de marzo de 2026.El despliegue será gradual. Primero llegará a:Estados UnidosIndiaDespués se expandirá a otros países y dispositivos:AndroidiPhoneAndroid AutoApple CarPlaycoches con Google integradoLa gran pregunta Si el mapa puede responder preguntas, sugerir planes y mostrar el mundo en 3D… ¿hasta qué punto seguirá siendo solo un mapa?Escucha más historias sobre tecnología Flash DiarioTecnología, ciencia y cultura digital explicadas cada día.Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    La próxima Xbox ya tiene nombre

    Play Episode Listen Later Mar 12, 2026 13:15 Transcription Available


    Microsoft revela Project Helix, su próxima consola Xbox, que unirá juegos de PC y consola con gráficos avanzadosPor Félix Riaño @LocutorCoMicrosoft comenzó a contar cómo será su próxima consola Xbox, llamada Project Helix, diseñada para unir videojuegos de PC y consola.Microsoft ya está preparando la próxima generación de Xbox. Su nombre interno es Project Helix, y aunque todavía faltan varios años para verla en las tiendas, ya conocemos algunos detalles técnicos que ayudan a entender hacia dónde va el futuro de los videojuegos.El anuncio ocurrió durante la Game Developers Conference 2026, un gran encuentro mundial donde desarrolladores de videojuegos y empresas tecnológicas comparten sus avances. Allí, Jason Ronald, vicepresidente de próxima generación en Xbox, explicó que Microsoft comenzará a enviar versiones tempranas de la consola a estudios de videojuegos en 2027 para que puedan empezar a crear juegos compatibles.Estas versiones tempranas se llaman devkits, abreviatura de “development kits”. Son consolas de prueba que permiten a los estudios preparar sus juegos antes de que el producto final llegue al público.Pero lo más interesante es el objetivo del proyecto. Unir el mundo de las consolas Xbox con el de los computadores personales. La pregunta es inevitable. ¿Estamos ante una consola tradicional o ante algo más parecido a un PC diseñado para jugar?Pero la nueva Xbox quiere romper la frontera entre consola y PC.Project Helix es el nombre clave de la próxima consola Xbox, sucesora de la actual generación formada por Xbox Series X y Xbox Series S, lanzadas en el año 2020.La gran diferencia es que Microsoft quiere cambiar la forma en que pensamos las consolas. Durante décadas, las consolas y los computadores han sido dos mundos separados. En una consola compras el hardware específico y juegas títulos diseñados para esa máquina. En un computador puedes instalar juegos desde muchas tiendas y ajustar el hardware.Microsoft quiere acercar esos dos universos.Según explicó Jason Ronald en la conferencia para desarrolladores, Project Helix será capaz de ejecutar juegos de consola Xbox y juegos de PC. Esto significa que la misma máquina podría acceder a experiencias que hoy están separadas.Para lograrlo, Microsoft está trabajando con la empresa AMD, fabricante de procesadores y tarjetas gráficas. Juntas están diseñando un chip personalizado, llamado SoC o “system on a chip”. Este tipo de chip integra varios componentes en una sola pieza, como el procesador central, el procesador gráfico y sistemas de inteligencia artificial.Ese chip permitirá aplicar nuevas técnicas gráficas que buscan que los videojuegos se vean más realistas que nunca.El gran reto de la industria del videojuego es que los gráficos cada vez son más complejos.Los desarrolladores quieren crear mundos más detallados, con iluminación realista, reflejos naturales y animaciones más fluidas. Pero todo eso requiere una enorme cantidad de cálculos por segundo.Una de las tecnologías más exigentes se llama ray tracing, o trazado de rayos. Es un método que simula el comportamiento real de la luz. Permite que los reflejos en un espejo, el brillo del agua o la iluminación de una habitación se vean como en la vida real.El problema es que calcular esos efectos exige mucha potencia. Incluso las consolas actuales tienen límites cuando usan estas técnicas.Microsoft dice que Project Helix ofrecerá un salto enorme en rendimiento de ray tracing. Esto permitiría escenarios más realistas y dinámicos.Además, la consola usará técnicas de aprendizaje automático, es decir, inteligencia artificial entrenada para mejorar gráficos.Por ejemplo, una técnica llamada upscaling con aprendizaje automático permite generar imágenes de mayor resolución a partir de imágenes más pequeñas. Otra llamada generación de cuadros adicionales crea nuevos fotogramas intermedios para que el movimiento se vea más fluido.Todo esto apunta a un objetivo. Que los videojuegos tengan mundos más complejos sin sacrificar rendimiento.Aunque los detalles técnicos son prometedores, todavía falta camino.Microsoft comenzará a enviar las primeras versiones de prueba de Project Helix a desarrolladores en 2027. Eso significa que los estudios podrán empezar a crear juegos para esta nueva generación de hardware varios años antes de que llegue al público.Este proceso es normal en la industria. Cuando un estudio recibe un devkit puede probar nuevas herramientas, optimizar gráficos y asegurarse de que sus juegos funcionen bien cuando la consola se lance oficialmente.También sabemos que Microsoft quiere mantener una de las características que ha hecho popular a Xbox en los últimos años. La compatibilidad con juegos antiguos.La empresa afirma que los juegos de cuatro generaciones de Xbox seguirán funcionando.Esto incluye el programa Xbox Play Anywhere, que ya cuenta con más de 1.500 juegos que pueden jugarse tanto en consola como en PC con una sola compra.Al mismo tiempo, Microsoft está integrando más funciones de Xbox directamente en Windows. En algunos computadores comenzará a aparecer un modo Xbox en Windows 11, que permite usar el sistema con una interfaz optimizada para jugar con control.En otras palabras, la empresa está construyendo un ecosistema donde los juegos se mueven entre dispositivos. Consola, computador y nube.El anuncio de Project Helix también llega en un momento importante para Xbox.La marca cumple 25 años, y Microsoft quiere marcar el inicio de una nueva etapa. Durante los últimos años, las ventas de hardware Xbox han sido menores que las de sus competidores principales, Nintendo y Sony.Además, la división de videojuegos de Microsoft representa alrededor del 7 % de los ingresos totales de la empresa, según reportes financieros recientes.Por esa razón, la estrategia actual parece centrarse en ampliar el alcance del ecosistema Xbox más allá de una sola consola. Servicios como Xbox Game Pass, el juego en la nube y la compatibilidad con PC forman parte de esa estrategia.En ese contexto, Project Helix podría representar algo más que una consola nueva. Podría ser un intento de redefinir qué es una consola en el siglo XXI.Algunos analistas incluso sugieren que el precio de esta máquina podría ser elevado. Hay estimaciones que hablan de 900 dólares o más, aunque Microsoft todavía no ha confirmado ningún precio.Por ahora, lo que sabemos es que la empresa quiere crear una plataforma capaz de acompañar los próximos años del videojuego. Con gráficos más complejos, inteligencia artificial integrada y una conexión mucho más estrecha entre consola y computador.Project Helix es el proyecto de la próxima Xbox y busca unir los mundos de la consola y el PC. Todavía faltan años para verla en tiendas, pero el plan apunta a gráficos más realistas, inteligencia artificial integrada y juegos que funcionen en muchos dispositivos.Si te gusta entender cómo evoluciona la tecnología del entretenimiento, sigue el pódcast Flash Diario en Spotify.Bibliografía

    10.000 escritores publican un libro sin texto

    Play Episode Listen Later Mar 11, 2026 22:09 Transcription Available


    Miles de autores publican libro vacío para protestar por uso de obras en inteligencia artificialPor Félix Riaño @LocutorCoEn la Feria del Libro de Londres apareció un libro extraño. Tiene portada, tiene título, tiene autores muy famosos… pero casi no tiene texto.El libro se llama “Don't Steal This Book”, que en español se puede entender como “No robes este libro”. Y detrás de ese título hay una protesta bastante seria.Cerca de 10.000 escritores firmaron el libro. Entre ellos aparece Kazuo Ishiguro, ganador del Premio Nobel de Literatura en 2017 y autor de novelas como Los restos del día. También están Alan Moore, creador de cómics muy influyentes como Watchmen y V for Vendetta, y Philippa Gregory, famosa por novelas históricas como The Other Boleyn Girl.A ellos se suman escritores populares como Richard Osman, conocido por la serie de novelas policiacas The Thursday Murder Club.Con tantos autores famosos uno esperaría una gran historia dentro del libro.Pero cuando lo abres…las páginas están casi vacías.Solo aparece una lista con los nombres de los autores que participan en la protesta.La pregunta que quieren provocar es simple:si la inteligencia artificial aprende leyendo libros sin permiso, ¿qué pasará con las personas que los escriben?Pero este libro vacío es en realidad un mensaje político.La idea del libro nació de Ed Newton-Rex, un compositor británico que también trabaja como activista por los derechos de autor en la era de la inteligencia artificial.Newton-Rex lleva varios años alertando sobre cómo las empresas tecnológicas entrenan sistemas de inteligencia artificial usando enormes cantidades de datos. Entre esos datos hay libros, artículos, música y obras artísticas.Muchas veces esos materiales se obtienen desde internet sin pedir permiso a quienes los crearon.Para llamar la atención sobre ese problema, Newton-Rex propuso algo muy simbólico: publicar un libro que representara el futuro que temen muchos escritores.Un libro vacío.El resultado fue “Don't Steal This Book”, una obra que contiene una sola cosa: una lista con los nombres de los casi 10.000 autores que apoyan la protesta.Nada más.Ni cuentos.Ni capítulos.Ni ensayos.Las páginas están en blanco.Durante la Feria del Libro de Londres, que se celebra del 10 al 12 de marzo, los organizadores distribuyeron alrededor de 1.000 ejemplares gratuitos del libro a los asistentes.La idea es que la gente abra el libro y se haga una pregunta incómoda:¿qué pasaría con la literatura si los escritores no pudieran vivir de su trabajo?El origen de esta protesta está en un debate legal que ocurre ahora mismo en el Reino Unido.El gobierno británico estudia cambios en la ley de derechos de autor relacionados con el desarrollo de la inteligencia artificial.Las empresas que desarrollan estos sistemas necesitan enormes cantidades de información para entrenar sus modelos. Los chatbots, los generadores de imágenes o los asistentes digitales aprenden analizando millones de textos, fotografías y sonidos.Entre esos materiales hay libros protegidos por copyright.Una de las ideas discutidas en el Reino Unido consiste en permitir que las empresas de inteligencia artificial utilicen esos libros para entrenar modelos, incluso sin pedir permiso a los autores.En algunos casos se propone un sistema llamado “opt-out”.Eso significa que el material podría usarse automáticamente, a menos que el autor declare explícitamente que no quiere participar.Muchos escritores creen que ese sistema cambia completamente la lógica tradicional del copyright.Normalmente, una obra está protegida desde el momento en que se crea. Nadie puede copiarla o utilizarla sin autorización.Con el sistema de exclusión voluntaria, cada autor tendría que vigilar si su trabajo está siendo usado para entrenar modelos de inteligencia artificial.Además existe otro temor.Si una inteligencia artificial aprende leyendo miles de novelas, luego podría generar textos similares y competir en el mismo mercado editorial.Para algunos autores, eso significa enfrentarse a una máquina entrenada con su propio trabajo.La publicación de “Don't Steal This Book” llega en un momento muy concreto del debate político.El gobierno del Reino Unido debe presentar un informe sobre el impacto económico de los cambios en la ley de copyright antes del 18 de marzo.Ese informe evaluará cómo equilibrar dos intereses muy grandes.Por un lado está la industria tecnológica, que quiere acceso a grandes cantidades de datos para desarrollar inteligencia artificial más potente.Por el otro está el sector creativo: escritores, músicos, artistas visuales y periodistas que dependen de los derechos de autor para poder vivir de su trabajo.Muchos autores no rechazan la inteligencia artificial. Lo que piden es algo bastante sencillo: que las empresas paguen por utilizar sus obras.De hecho, el mundo editorial ya está explorando modelos de licencias. Algunas organizaciones trabajan en sistemas que permitirían a las empresas de inteligencia artificial entrenar modelos con libros… pero pagando por ese acceso.En otras palabras, el debate no es si la inteligencia artificial debe existir.El debate es cómo se obtiene el conocimiento que permite que funcione.El libro vacío es una forma visual de advertir lo que podría pasar si los creadores dejan de recibir compensación por su trabajo.Esta protesta forma parte de una serie de acciones que el sector creativo ha organizado en los últimos años.En 2025, por ejemplo, más de 1.000 músicos publicaron un álbum con grabaciones de estudios de grabación vacíos. El proyecto se tituló “Is This What We Want?”.Entre quienes apoyaron esa iniciativa aparecieron nombres enormes de la música británica, como Paul McCartney, uno de los compositores más influyentes de la historia del pop, y Kate Bush, famosa por canciones como Running Up That Hill.La idea del álbum era parecida a la del libro vacío.Si las empresas de inteligencia artificial usan obras creativas sin compensar a quienes las producen, el resultado podría ser una industria cultural silenciosa.Mientras tanto, el conflicto también ha llegado a los tribunales.En uno de los casos más comentados, la empresa de inteligencia artificial Anthropic, creadora del chatbot Claude, aceptó pagar alrededor de 1.500 millones de dólares para resolver una demanda colectiva presentada por autores que acusaban a la empresa de usar copias pirateadas de sus libros para entrenar modelos.Al mismo tiempo, está surgiendo un nuevo mercado: el de las licencias de contenido para inteligencia artificial.Algunas editoriales ya negocian acuerdos para vender acceso legal a catálogos completos de libros. Eso permitiría entrenar modelos respetando los derechos de autor.En ese contexto, el libro “Don't Steal This Book” funciona como una advertencia y como una invitación al debate.Las páginas están vacías.Pero el mensaje está bastante lleno.Un libro vacío firmado por miles de autores está provocando un debate global sobre inteligencia artificial y derechos de autor. Los escritores piden algo sencillo: que su trabajo no se utilice gratis para entrenar algoritmos.¿Qué opinas tú sobre este tema?Cuéntamelo y sigue el pódcast Flash Diario en Spotify.Miles de escritores publicaron un libro vacío para protestar contra inteligencia artificial entrenada con libros sin permiso ni pago.BibliografíaNDTVLiterary HubDownTheTubesEuronewsTürkiye TodayThe GuardianITV NewsGamereactorConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    X promete 'proteger' tus fotos

    Play Episode Listen Later Mar 10, 2026 20:30 Transcription Available


    Grok no te protegeX estrenó un bloqueo para Grok, pero la función deja abiertas varias rutas para editar fotos ajenasPor Félix Riaño @LocutorCoX activó en iPhone una opción para bloquear ediciones de Grok sobre fotos subidas a la red. El problema es que ese bloqueo apenas tapa una puerta. Según pruebas publicadas por The Verge, la función impide que otras personas llamen a @Grok dentro de una respuesta para editar una imagen, pero no evita que esa misma foto se abra en Grok por otras vías dentro de la app o después de guardarla y volverla a subir. La herramienta apareció sin anuncio oficial y, por ahora, su alcance real sigue siendo limitado.X quiere dar la impresión de que escuchó las quejas. La red social agregó una opción que suena tranquilizadora: “bloquear modificaciones por Grok”. Dicho así, parece una barrera seria para cuidar las fotos que compartes. Pero cuando uno mira la letra pequeña, la historia cambia. La función apenas evita una forma concreta de pedirle a Grok que altere una imagen: etiquetar a @Grok en una respuesta dentro de X. Y ya. Nada más. Si alguien mantiene pulsada la foto desde la app de X en iPhone, todavía puede abrir la opción para editarla con Grok. También puede guardar la imagen, volverla a publicar y pedir cambios desde esa nueva copia. Entonces la pregunta ya no es si existe un bloqueo. La pregunta de verdad es otra: ¿X está protegiendo a las personas o está maquillando un problema que sigue vivoParece protección, pero deja demasiadas puertas abiertasLa novedad apareció dentro del flujo para subir imágenes o video en la app de X para iPhone. Hay que tocar el icono del pincel y luego entrar a una opción más escondida para activar el bloqueo. Ese detalle ya dice bastante. No estamos ante un gran botón visible para que cualquier persona entienda cómo proteger su contenido. Está metido dentro de un submenú. The Verge verificó que la función existe y probó su comportamiento. El resultado fue incómodo: sí frena a suscriptores Premium cuando intentan editar una imagen protegida etiquetando a @Grok en una respuesta, pero no impide otras formas de modificación disponibles en la misma experiencia móvil. Además, esa opción no apareció en la web durante sus pruebas y tampoco se mostró en imágenes antiguas ya publicadas. O sea, el control llega tarde, llega escondido y llega incompleto.El contexto de este cambio importa mucho. A comienzos de enero, Grok quedó en el centro de una tormenta por ayudar a crear imágenes sexualizadas y de desnudez falsa de personas reales. Varios medios reportaron que la práctica se expandió rápido y que reguladores de varias regiones empezaron a investigar el caso. Social Media Today recogió el dato de Bloomberg según el cual, en un momento de esa ola, Grok llegó a generar unas 6.700 imágenes por hora de tipo sexualizado o de desnudez simulada. Después, el 14 de enero, X limitó funciones y dejó la edición de imágenes detrás del pago para usuarios de X o Grok de nivel superior. Pero la situación no desapareció. Días después todavía se reportaban formas de producir desnudos falsos con ciertos comandos. Por eso este nuevo interruptor suena menos a solución de fondo y más a parche apresurado. Y hay un detalle todavía más incómodo: si una herramienta permite daño por varios caminos, cerrar apenas el más visible no cambia el problema de base. Lo vuelve un poco menos escandaloso a simple vista.Lo que vamos viendo aquí es un patrón bastante conocido en cultura digital. Primero aparece una función potente. Después llegan usos abusivos muy previsibles. Luego viene la protesta pública, entran reguladores, y finalmente llega una medida parcial que permite decir: “ya hicimos algo”. X aún no ha anunciado oficialmente esta novedad, así que ni su disponibilidad completa ni su estado de desarrollo están del todo definidos. The Verge pidió comentarios y, al momento de su publicación, no había respuesta. Mientras tanto, la realidad práctica es esta: el bloqueo sirve para frenar el atajo más obvio dentro de una conversación en X, pero no protege realmente una foto una vez que esa foto está circulando en internet. Ese punto es importante para toda persona que sube imágenes a redes sociales, y más si aparecen niñas, niños o adolescentes, porque una copia, una captura o una re-publicación pueden saltarse la intención original del autor. El caso también deja una lección para la industria: cuando una plataforma vende una opción con nombre tranquilizador, hay que mirar qué bloquea de verdad y qué no. En privacidad digital, los nombres bonitos no bastan. Lo que cuenta es el comportamiento real del sistema. Esta historia va más allá de X y de Grok. Habla de cómo estamos entrando en una etapa en la que publicar una foto ya no significa solamente compartir una imagen. También significa entregar material que puede ser reinterpretado por sistemas generativos. Y eso cambia la relación entre la persona, la plataforma y el público. Antes, el riesgo principal era que alguien copiara tu foto, la recortara o le pusiera texto encima. Ahora, además, puede pedirle a una inteligencia artificial que altere el gesto, la ropa, el fondo o el contexto entero. En teoría, algunas barreras deberían impedir esos abusos. En la práctica, muchas llegan tarde o quedan llenas de huecos.También hay una dimensión cultural. Las redes llevan años empujando a la gente a publicar más, más rápido y con menos fricción. Pero ese modelo choca con otra realidad: cada archivo que subes puede terminar en sistemas de edición automática, remezcla o generación de versiones nuevas. Por eso esta noticia no es solo de tecnología. También es de cultura digital y de convivencia. Nos obliga a preguntar quién controla una imagen después de publicarla, qué responsabilidad tiene la plataforma cuando su propia IA facilita usos abusivos y qué tan honesta es una interfaz que promete “bloqueo” cuando apenas cierra un camino muy concreto. En pocas palabras, el debate ya no es si la IA puede transformar tus fotos. El debate es quién pone los límites, cómo los pone y si esos límites sirven de verdad. X añadió un interruptor para frenar ciertas ediciones de Grok sobre tus fotos, pero ese control se queda corto. La enseñanza es simple: subir una imagen sigue implicando riesgos, aunque la plataforma prometa protección. Cuéntame qué opinas y sigue Flash Diario en Spotify para escuchar más historias de tecnología, ciencia y cultura digital. BibliografíaThe VergeSocial Media TodayEngadgetGizmodoDigital TrendsYahoo TechYahoo News SingaporeConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    El día que empujamos un asteroide

    Play Episode Listen Later Mar 9, 2026 14:43 Transcription Available


    La misión DART de NASA cambió la órbita de un asteroide alrededor del Sol por primera vez.Por Félix Riaño @LocutorCoHay noticias científicas que pasan casi desapercibidas. Esta es una de ellas. Y lo que revela es impresionante: por primera vez en la historia, los seres humanos cambiamos la órbita de un objeto celeste alrededor del Sol.Sí. La humanidad movió un asteroide.Todo ocurrió gracias a la misión DART de NASA. En 2022, una nave espacial fue dirigida de forma deliberada para estrellarse contra un pequeño asteroide llamado Dimorphos. El objetivo era probar un método de defensa planetaria: comprobar si podríamos desviar un asteroide peligroso si algún día uno viniera hacia la Tierra. Los científicos ya sabían que el choque cambió la órbita de Dimorphos alrededor de otro asteroide llamado Didymos. Pero ahora han confirmado algo más sorprendente. El impacto también modificó ligeramente la trayectoria que los dos asteroides juntos siguen alrededor del Sol.El cambio es diminuto. Apenas 0,15 segundos en una órbita que dura 769 días.Puede parecer insignificante. Pero demuestra algo enorme.Los seres humanos ya somos capaces de cambiar el movimiento de un cuerpo celeste.¿Podría ese pequeño empujón salvar a la Tierra algún día?Pequeño empujón hoy puede salvar ciudades mañanaLa misión se llama DART, siglas en inglés de Double Asteroid Redirection Test. Fue lanzada en noviembre de 2021 con un objetivo directo: probar si una nave espacial podía empujar un asteroide. El objetivo elegido fue Dimorphos, una pequeña “luna” que gira alrededor de un asteroide mayor llamado Didymos. Ambos forman un sistema de dos asteroides que viajan juntos alrededor del Sol.Dimorphos tiene unos 160 metros de diámetro. Didymos mide cerca de 780 metros. Ninguno representa peligro para la Tierra. Esa fue precisamente la razón para escogerlos como laboratorio espacial.El 26 de septiembre de 2022, la nave DART se estrelló contra Dimorphos a una velocidad cercana a 22.500 kilómetros por hora.Los telescopios de todo el mundo comenzaron a observar el sistema de asteroides durante meses y años. Los científicos buscaban una señal muy concreta: saber si el impacto había cambiado su movimiento. El primer resultado llegó pronto. La órbita de Dimorphos alrededor de Didymos se redujo en unos 32 minutos.Era una prueba clara de que el método funcionaba.Pero las observaciones continuaron. Y ahora los científicos confirmaron algo que nadie había medido antes. El impacto también cambió ligeramente la órbita del sistema Didymos-Dimorphos alrededor del Sol.Es la primera vez que un objeto fabricado por humanos modifica de forma medible la trayectoria de un cuerpo celeste en el sistema solar.Detrás de este experimento hay una preocupación muy real.Nuestro planeta comparte su vecindario con miles de asteroides que cruzan o se acercan a la órbita de la Tierra. Muchos están identificados. Pero no todos.Los científicos estiman que existen unos 25.000 asteroides capaces de destruir una ciudad. Hasta ahora solo se ha catalogado cerca del 40 %. Eso significa que más de 15.000 asteroides potencialmente peligrosos aún no han sido detectados.El problema no suele ser los gigantes. Los más grandes se detectan con relativa facilidad. El riesgo principal está en los llamados asteroides capaces de arrasar ciudades, objetos de entre 150 y 500 metros de diámetro. Son suficientemente grandes para causar destrucción regional, pero suficientemente pequeños para ser difíciles de detectar.La historia ya ofrece un ejemplo.En 1908, un objeto de unos 40 metros explotó sobre Siberia, en el evento conocido como Tunguska. La onda expansiva derribó árboles en más de 2.000 kilómetros cuadrados de bosque.Si un evento similar ocurriera sobre una gran ciudad moderna, el daño sería enorme. Por eso la defensa planetaria tiene una regla simple. El arma más importante contra un asteroide es el tiempo.Cuantos más años tengamos antes de un posible impacto, más fácil será desviar su trayectoria.La misión DART demostró algo esencial para esa estrategia.No hace falta empujar un asteroide con una fuerza gigantesca.Basta con darle un pequeño empujón… muchos años antes.El impacto redujo la velocidad orbital del sistema de asteroides en apenas unos 10 micrómetros por segundo. Es una velocidad minúscula. Pero en el espacio, donde los movimientos duran décadas o siglos, incluso una diferencia tan pequeña se acumula con el tiempo.Después de muchos años, ese pequeño cambio puede transformar una colisión directa en un simple paso cercano. Además ocurrió algo inesperado.El choque expulsó aproximadamente 16 millones de kilogramos de roca y polvo del asteroide. Ese material salió disparado al espacio y generó un empujón adicional.En otras palabras, el propio asteroide amplificó el impacto. Ahora los científicos esperan aprender mucho más cuando la nave Hera, de la Agencia Espacial Europea, llegue al sistema Didymos-Dimorphos en 2026.Hera no chocará contra el asteroide.Su misión será estudiar el cráter, la estructura interna del asteroide y los efectos reales del impacto.Con esos datos, los ingenieros podrán diseñar misiones futuras de defensa planetaria con mucha más precisión.Las imágenes captadas por la nave DART antes del impacto revelaron algo inesperado sobre estos asteroides. Durante años se pensó que los sistemas formados por dos asteroides eran relativamente tranquilos. Pero nuevos análisis muestran que son mucho más dinámicos.Los investigadores descubrieron marcas en forma de abanico en la superficie de Dimorphos. Estas marcas sugieren que material del asteroide grande, Didymos, puede viajar lentamente hacia su pequeño compañero.Los científicos describen este fenómeno como “bolas de nieve cósmicas”.Pequeños fragmentos de roca pueden desprenderse del asteroide mayor y desplazarse hacia el otro a velocidades extremadamente bajas.En algunos casos viajan a 30 centímetros por segundo, más lento que una persona caminando. Cuando esos fragmentos aterrizan en Dimorphos dejan patrones de material que forman abanicos de polvo y rocas.Para comprobar esta idea, los científicos realizaron experimentos en laboratorio. Lanzaron pequeñas canicas sobre arena con piedras distribuidas de forma parecida a la superficie del asteroide.Las marcas resultantes coincidieron con los patrones observados en las imágenes espaciales.Estos estudios también confirman la presencia del efecto YORP, un fenómeno en el que la luz del Sol puede acelerar lentamente la rotación de un asteroide hasta que comienza a expulsar material.Comprender estos procesos ayuda a los científicos a entender mejor cómo evolucionan los asteroides cercanos a la Tierra.Y ese conocimiento será esencial si algún día necesitamos mover uno para proteger nuestro planeta.La misión DART demostró que la humanidad puede alterar la trayectoria de un asteroide. El cambio es pequeño, pero prueba que desviar rocas espaciales es posible si actuamos con tiempo. Historias como esta muestran cómo la ciencia puede proteger nuestro planeta. Si te interesa la ciencia explicada con calma, sigue Flash Diario en Spotify.Flash Diario en SpotifyBibliografíaThe IndependentScienceDailyNASA Jet Propulsion LaboratoryFrance 24EngadgetEarth.comNew York PostConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    GPT-5.4 entra a Excel

    Play Episode Listen Later Mar 6, 2026 18:41 Transcription Available


    GPT-5.4 llega a ChatGPT con herramientas para Excel, agentes autónomos y mayor precisión en tareas profesionalesPor Félix Riaño @LocutorCoOpenAI anunció una nueva versión del modelo que impulsa ChatGPT. Se llama GPT-5.4 y está diseñado para trabajar dentro de programas que muchas personas usan todos los días en la oficina. Por ejemplo, hojas de cálculo, documentos o presentaciones.Una de las novedades más llamativas es que ChatGPT ahora puede trabajar directamente dentro de Excel o Google Sheets. Eso significa que puede analizar datos, proponer fórmulas o ayudar a construir modelos financieros sin salir de la hoja de cálculo.OpenAI afirma que esta versión comete menos errores y entiende mejor preguntas complejas. También puede buscar información en varias fuentes y combinarla para responder de manera más organizada.La pregunta que aparece en muchas conversaciones es inevitable. ¿Estamos frente a una herramienta que ayuda a trabajar mejor… o frente a una inteligencia artificial que empieza a competir con algunos trabajos de oficina?Pero esta inteligencia artificial ahora puede actuar dentro del computadorHasta ahora, muchas personas usaban ChatGPT como si fuera una enciclopedia conversacional. Se le preguntaba algo, respondía, y el usuario copiaba la información para usarla en otro programa.Con GPT-5.4 ese modelo empieza a cambiar. La inteligencia artificial ya no se limita a responder preguntas. También puede ejecutar tareas dentro de las herramientas que usamos para trabajar.Por ejemplo, una persona puede pedirle que revise una hoja de cálculo con datos financieros. El sistema puede interpretar las tablas, detectar patrones y proponer fórmulas o gráficos para analizar la información.Después puede escribir un informe explicando los resultados. Y luego preparar una presentación para exponer ese análisis.Todo eso dentro del mismo flujo de trabajo.La idea de OpenAI es que ChatGPT deje de ser un simple asistente de conversación y pase a convertirse en una especie de compañero digital que ayuda a completar proyectos completos.Ese cambio tiene un efecto inmediato: aumenta la preocupación sobre el impacto de la inteligencia artificial en el trabajo profesional.Durante muchos años se pensó que la automatización iba a reemplazar tareas físicas repetitivas. Robots en fábricas, máquinas en líneas de producción.Ahora la automatización empieza a entrar en los trabajos que dependen del análisis, la escritura o el manejo de información.En pruebas internas realizadas por OpenAI, el nuevo modelo logró resolver tareas que normalmente realizan profesionales en áreas como finanzas, programación, investigación o redacción.La discusión entonces cambia de tono.Algunas personas ven estas herramientas como una especie de “supercalculadora intelectual” que permite a los profesionales trabajar más rápido.Otras personas temen que estas capacidades terminen reduciendo la necesidad de ciertos puestos de trabajo, sobre todo en tareas que siguen reglas claras o procesos repetibles.La realidad probablemente estará en un punto intermedio.Como ocurrió con muchas tecnologías anteriores, es posible que estas herramientas transformen los trabajos antes de reemplazarlos completamente.GPT-5.4 también introduce una función que cambia bastante la relación entre humanos y software.Este modelo puede interactuar con un computador de manera directa. Puede interpretar capturas de pantalla, mover el cursor, escribir comandos y navegar entre aplicaciones.Es decir, puede operar programas de una forma parecida a como lo haría una persona frente al teclado. Ese tipo de funciones abre la puerta a lo que muchos investigadores llaman “agentes de inteligencia artificial”. Sistemas que pueden completar procesos completos paso a paso. Por ejemplo, buscar información, organizarla en una hoja de cálculo, escribir un informe y preparar una presentación.Todo dentro de un mismo proceso automatizado.OpenAI también está cambiando la forma en que organiza sus modelos.Algunas versiones están diseñadas para responder rápido en conversaciones cotidianas. Otras versiones están pensadas para analizar problemas complejos con más calma y profundidad.Así, ChatGPT empieza a funcionar como una herramienta con distintos modos de trabajo, dependiendo de lo que necesite el usuario.Otra mejora importante tiene que ver con la memoria del sistema durante una conversación larga.Los modelos anteriores podían perder el hilo cuando el diálogo se volvía muy extenso o cuando la tarea tenía muchos pasos.GPT-5.4 mantiene mejor el contexto de la conversación. Eso permite trabajar con instrucciones largas o proyectos que requieren varias etapas de análisis.También mejora la forma en que el sistema usa herramientas externas. En lugar de intentar hacerlo todo dentro del mismo texto, puede consultar programas o servicios especializados cuando los necesita.En términos simples, la inteligencia artificial empieza a parecerse menos a un generador de texto y más a un coordinador de herramientas digitales.OpenAI también está apostando por un mercado muy específico: el trabajo profesional.Muchas de las nuevas funciones están diseñadas para analistas financieros, programadores, investigadores o equipos que trabajan con grandes cantidades de datos.Esto refleja un cambio estratégico en toda la industria de la inteligencia artificial.Las empresas ya no compiten solamente por crear el chatbot más entretenido. Ahora compiten por construir el asistente de trabajo más útil.)GPT-5.4 muestra hacia dónde se dirige la inteligencia artificial: herramientas que colaboran directamente en el trabajo diario. ChatGPT ahora puede operar programas, analizar datos y preparar documentos dentro del mismo flujo laboral.El debate apenas comienza. ¿Será un aliado del trabajo humano o su sustituto en algunas tareas?Cuéntamelo y sigue el pódcast Flash Diario.ChatGPT ahora puede trabajar dentro de Excel y programas de oficina. GPT-5.4 acerca la inteligencia artificial al trabajo diario.—BibliografíaAxiosThe VergeZDNetEngadget VentureBeat TechRadarConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    MacBook Neo barato

    Play Episode Listen Later Mar 5, 2026 23:04 Transcription Available


    MacBook Neo cuesta 599 dólares y usa chip A18 Pro en apuesta educativa masivaPor Félix Riaño @LocutorCoApple presentó el MacBook Neo como su portátil más económico. Parte desde 599 dólares y 499 dólares para estudiantes. Usa el chip A18 Pro del iPhone y promete hasta 16 horas de batería. Llega con 8 GB de memoria y 256 GB de almacenamiento. La pregunta es: ¿es una ganga real o un anzuelo para entrar al ecosistema?Apple decidió entrar de frente al terreno de los portátiles de 599 dólares. Lo hizo con el nuevo MacBook Neo. Es un equipo de 13 pulgadas, con pantalla Liquid Retina de 2.408 por 1.506 píxeles y brillo de 500 nits. Pesa 1,2 kilogramos y mide 1,27 centímetros de grosor. Tiene dos puertos USB-C, con una diferencia incómoda: uno es USB 3 de hasta 10 gigabits por segundo y el otro es USB 2 de 480 megabits por segundo.El procesador es el A18 Pro, el mismo que usa el iPhone 16 Pro. Viene con 8 GB de memoria unificada y 256 GB de almacenamiento en su versión base. La batería promete hasta 16 horas de reproducción de video y 11 horas de navegación web. El precio oficial es 599 dólares, y con descuento educativo baja a 499 dólares.Apple afirma que es hasta 50 por ciento más rápido en tareas cotidianas que el portátil más vendido con Intel Core Ultra 5, según pruebas con el benchmark Speedometer. Pero aquí viene la pregunta: ¿estamos ante un nuevo estándar de valor o ante un Mac recortado con buen marketing?Un Mac accesible… con recortesApple no solía competir en esta franja. El MacBook Air más reciente con chip M5 parte desde 1.099 dólares. El salto hasta 599 dólares es grande. La diferencia son 500 dólares. Eso cambia el público. Ahora hablamos de estudiantes, familias y personas que antes miraban un Chromebook o un portátil con Windows.El MacBook Neo mantiene el chasis de aluminio. Se siente como un Mac. Viene en colores como Citrus, Blush, Indigo y plata. Esa decisión recuerda al iBook G3 de principios de los años 2000. Apple está enviando un mensaje: este es el Mac juvenil.La pantalla conserva buena resolución y brillo. Tiene cámara de 1080p. Tiene altavoces con Dolby Atmos. Pero empiezan los ajustes: el teclado no tiene retroiluminación. El trackpad es mecánico, no háptico. Solo admite un monitor externo en 4K a 60 hercios. No tiene puerto MagSafe. Y el Touch ID solo aparece en el modelo de 512 GB que cuesta 699 dólares.Apple no está escondiendo que hubo concesiones. Está diciendo que el precio lo justifica. ¿Te parece suficiente?Aquí está el punto delicado. El MacBook Neo usa un chip de iPhone, no un chip de la serie M. Eso rompe la lógica que Apple venía construyendo desde 2020, cuando migró todos sus Mac a Apple Silicon con arquitectura pensada para computadores.El A18 Pro tiene seis núcleos de CPU. Dos de alto rendimiento y cuatro de eficiencia. Tiene cinco núcleos de GPU y soporte para trazado de rayos. En tareas ligeras como navegar, escribir y ver video, va a rendir bien. Pero en edición de video 4K, en modelado 3D o en grandes proyectos de programación, puede quedarse corto frente a un MacBook Air con chip M.Además, los 8 GB de memoria son el límite. No hay opción de 16 GB. En 2026, muchos usuarios ya consideran 8 GB como el mínimo justo. Si abres muchas pestañas, videollamadas y apps al mismo tiempo, vas a notar presión en el sistema.Otro detalle: solo uno de los puertos USB-C es USB 3. El otro es USB 2. Eso significa que puedes conectar un monitor o tener transferencia rápida, pero no todo a la vez con la misma velocidad. Para un equipo pensado para estudiantes, puede ser suficiente. Para alguien que quiere crecer con el equipo, puede sentirse limitado.Entonces surge la duda real: ¿es una puerta de entrada inteligente o una forma de segmentar más el mercado para empujar después al usuario hacia modelos más caros?Apple no improvisó este movimiento. El mercado de portátiles económicos estaba dominado por Chromebook y por equipos Windows de menos de 700 dólares. Muchos de ellos ofrecen buena batería y rendimiento aceptable. Lo que Apple aporta aquí es construcción premium, integración con iPhone y acceso completo a macOS Tahoe.El MacBook Neo permite copiar y pegar entre iPhone y Mac. Permite usar apps del ecosistema. Está preparado para Apple Intelligence. Eso significa que Apple quiere que el usuario joven entre al ecosistema temprano y luego, cuando necesite más potencia, suba a un Air o a un Pro.Desde el punto de vista estratégico, tiene lógica. Desde el punto de vista técnico, hay límites claros. Si eres estudiante que escribe, navega y hace trabajos en la nube, este equipo puede ser suficiente durante varios años. Si eres creador de contenido, diseñador o desarrollador exigente, probablemente vas a necesitar un modelo con chip M y más memoria.El precio de 599 dólares lo convierte en el Mac más accesible de la historia en lanzamiento oficial. Eso cambia la conversación. Pero también redefine qué entendemos por “Mac completo”.La decisión final no es emocional. Es práctica. ¿Qué vas a hacer con él todos los días?El lanzamiento ocurrió junto a otros anuncios como el iPhone 17e y los nuevos MacBook Pro con chip M5 Pro y M5 Max. El contraste es fuerte. Mientras el Neo baja a 599 dólares, el MacBook Pro de 16 pulgadas puede superar los 7.000 dólares en configuraciones altas.El Neo pesa 1,2 kilogramos. Es el mismo peso que el MacBook Air. Su batería es de 36,5 vatios hora. Apple afirma hasta 16 horas de video. Esa cifra suele medirse en condiciones controladas, con brillo moderado y aplicaciones optimizadas. En uso real puede variar.En Reino Unido y la Unión Europea, el cargador no viene incluido en la caja. Solo el cable USB-C. En Estados Unidos sí incluye adaptador de 20 vatios. Ese detalle reduce costos logísticos y ambientales, pero también puede generar molestias.El descuento educativo baja el precio a 499 dólares. Eso lo pone en territorio de iPad Air. Apple está compitiendo contra su propio catálogo. Si alguien duda entre un iPad con teclado y un MacBook Neo, ahora la diferencia es menor.Y algo más: solo soporta un monitor externo. Para quien usa dos pantallas, esto es un límite concreto. No es un detalle menor.Todo esto configura un producto atractivo, pero muy medido. Apple calculó cada concesión.El MacBook Neo abre la puerta de entrada al ecosistema Mac desde 599 dólares. Ofrece buen diseño y rendimiento suficiente para tareas básicas. Tiene límites claros en memoria y puertos. Antes de comprar, revisa qué uso real le vas a dar.Cuéntame qué opinas y sígueme en Flash Diario.Resumen para TikTok (20 palabras)MacBook Neo cuesta 599 dólares, usa chip de iPhone y apunta a estudiantes. Buen precio, pero con límites claros.BibliografíaWallpaperWiredThe TelegraphTechRadarMacRumorsPCMagMacworldCreative BloqConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    ¿Hay gente en Kenia viendo lo que capturan las Ray-Ban Meta?

    Play Episode Listen Later Mar 4, 2026 16:18 Transcription Available


    Gafas Meta bajo lupaInvestigación revela que gafas Meta envían videos íntimos a revisores humanos para entrenar inteligencia artificialPor Félix Riaño @LocutorCoUn reportaje de medios suecos destapa cómo videos capturados con gafas inteligentes Meta Ray-Ban pueden terminar en manos de anotadores de datos en Kenia. El material incluye escenas privadas y datos financieros que usuarios no sabían que se estaban compartiendo.Las ves en anuncios. Las ves en redes sociales. Un deportista famoso se las pone y les pregunta quién es el mejor jugador de hockey de Suecia.Parecen gafas normales. Pero no lo son.Son las gafas inteligentes de Meta, creadas junto a Ray-Ban. Prometen ayudarte a traducir idiomas, identificar objetos y responder preguntas con solo decir: “Hey Meta”.La promesa es clara: tú tienes el control.Pero una investigación de los diarios suecos Svenska Dagbladet y Göteborgs-Posten cuenta otra historia. Según su trabajo, parte del video que capturan estas gafas termina siendo visto por personas reales que trabajan entrenando inteligencia artificial.Y algunas de esas imágenes muestran momentos muy privados.La pregunta es sencilla y directa: cuando hablas con la IA de tus gafas… ¿quién más podría estar viendo?Pero la inteligencia artificial necesita ojos humanos.En septiembre de 2025, en Menlo Park, California, el director de Meta presenta las nuevas gafas como el futuro de la empresa. En pantallas gigantes se ve el mundo desde sus ojos mientras camina hacia el escenario.Las gafas prometen traducción en tiempo real, reconocimiento de objetos y hasta ayuda para el trabajo diario.En 2025 se vendieron cerca de siete millones de unidades, después de que en 2023 y 2024 se vendieran juntas unos dos millones. El crecimiento fue rápido.Para que la inteligencia artificial entienda lo que ve la cámara, necesita entrenamiento. Ahí entran los llamados “anotadores de datos”.En Nairobi, Kenia, empleados de la empresa Sama revisan imágenes y videos. Dibujan cuadros sobre objetos, etiquetan personas, clasifican escenas. Es un trabajo repetitivo. Pero es la base de muchos sistemas de visión artificial.El problema es que, según la investigación sueca, no todo lo que llega a sus pantallas son flores y señales de tránsito.Varios trabajadores contaron que han visto escenas íntimas capturadas por las gafas. Personas en el baño. Personas cambiándose de ropa. Tarjetas bancarias visibles al pagar en una tienda.Algunos empleados dijeron que muchas veces creen que quienes aparecen en los videos no saben que están grabando.Uno de ellos afirmó: “Vemos todo. Desde salas de estar hasta cuerpos desnudos”.Meta explica en sus términos de uso que algunas interacciones con sus sistemas de IA pueden revisarse de forma automática o manual. Es decir, por personas.Cuando periodistas probaron las gafas en Suecia e intentaron usarlas sin conexión a internet, la función de inteligencia artificial no funcionó. Al analizar el tráfico de red, detectaron comunicación frecuente con servidores de Meta en Suecia y Dinamarca.Eso contradice lo que algunos vendedores dijeron en tiendas, donde afirmaban que todo se quedaba en el teléfono.En Europa rige el Reglamento General de Protección de Datos, conocido como GDPR. Esta norma exige transparencia sobre cómo se procesan los datos personales y dónde se almacenan.Expertos consultados por los periodistas señalaron que muchos usuarios no son plenamente conscientes de que el video puede enviarse a servidores externos y revisarse por humanos.Además, antiguos empleados de Meta indicaron que los sistemas que difuminan rostros pueden fallar, sobre todo con poca luz.Eso abre un riesgo evidente: imágenes que deberían estar protegidas podrían no estarlo.Meta respondió que el contenido se maneja según sus políticas de privacidad y términos de uso. También afirmó que filtra datos para proteger la privacidad antes de cualquier revisión.Pero no ofreció detalles específicos sobre cuánto tiempo se guardan los videos ni exactamente quién puede acceder a ellos.Las autoridades europeas han sido informadas del caso. Legisladores han pedido aclaraciones sobre la transferencia de datos fuera de la Unión Europea, especialmente hacia países que aún no cuentan con reconocimiento formal de protección equivalente.Mientras tanto, el debate no es solo legal. Es social.En universidades de Estados Unidos ya hay preocupación por el uso de estas gafas en campus. Algunos estudiantes dicen sentirse incómodos al no saber si alguien los está grabando. En una escuela de Texas se prohibió el uso de tecnología vestible en 2025 por temor a trampas académicas y grabaciones no autorizadas.La tecnología avanza rápido. Las normas sociales van más despacio.Y la confianza se construye con transparencia.Este caso también muestra algo que a veces olvidamos: la inteligencia artificial no se entrena sola.Detrás de cada sistema hay miles de personas etiquetando datos. En muchos casos, en países con salarios bajos.Sama ya había estado en el centro de polémicas anteriores relacionadas con moderación de contenido para grandes plataformas tecnológicas. Ahora su labor se centra en visión artificial.El trabajo es estricto. Según los testimonios, los empleados no pueden entrar con teléfonos ni grabar nada en la oficina. Firmaron acuerdos de confidencialidad.Al mismo tiempo, la propia política de Meta indica que no se deben compartir datos sensibles con la IA. La responsabilidad recae en el usuario.Eso plantea una situación compleja.Si alguien activa la IA sin saber que la cámara sigue captando imágenes durante algunos segundos más, ese material puede entrar en el sistema de entrenamiento.Y una vez que los datos se usan para entrenar modelos, recuperarlos o eliminarlos no es sencillo.La discusión ya no es solo técnica. Es ética.¿Qué significa consentimiento cuando hablamos de cámaras que parecen gafas normales?¿Cómo se informa de forma sencilla a millones de usuarios sobre procesos técnicos complejos?Y una más: ¿estamos leyendo realmente lo que aceptamos cuando pulsamos “aceptar”?Las gafas inteligentes ofrecen funciones útiles y sorprendentes. Pero esta investigación recuerda que cada avance trae responsabilidades.La privacidad no es un detalle pequeño. Es parte de tu vida diaria.Antes de activar cualquier asistente con cámara, conviene preguntarse qué datos salen de tu dispositivo y a dónde viajan.Te leo en comentarios y te invito a seguir el pódcast Flash Diario para entender juntos cómo la tecnología afecta nuestra vida.Investigación revela que gafas Meta envían videos privados a trabajadores en Kenia para entrenar inteligencia artificial.BibliografíaSvenska DagbladetGöteborgs-PostenGizmodoEngadget9to5MacNewsweekForbesThe DecoderDigWatchConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    ¿El mejor iPhone barato?

    Play Episode Listen Later Mar 3, 2026 15:48 Transcription Available


    Apple presenta el iPhone 17e con 256 GB, chip A19, cámara de 48 MP y precio sin aumentoPor Félix Riaño @LocutorCoApple acaba de presentar el iPhone 17e. Es la versión más accesible de la familia iPhone 17. Va a costar 599 dólares en Estados Unidos y 719 euros en Europa. Va a traer 256 gigabytes de almacenamiento desde el modelo básico. Eso es el doble que el modelo anterior al mismo precio. Incluye el nuevo chip A19, el módem C1X diseñado por Apple y una cámara de 48 megapíxeles con zoom 2x en calidad óptica. También suma MagSafe, carga inalámbrica de hasta 15 vatios y funciones satelitales para emergencias. Las reservas van a comenzar el 4 de marzo y la venta en tiendas va a arrancar el 11 de marzo. La pregunta es sencilla: ¿es una ganga real o es el mínimo necesario para competir en 2026?Pero hay detalles que cambian la conversaciónApple decidió mantener el precio de 599 dólares y duplicar el almacenamiento base. Pasar de 128 a 256 gigabytes puede sonar técnico, pero en la práctica significa más espacio para miles de fotos en alta resolución y horas de video en 4K. El chip A19 está fabricado con tecnología de 3 nanómetros. Eso quiere decir transistores más pequeños y más eficientes. Apple promete hasta el doble de velocidad frente al iPhone 11, que salió en 2019. También integra el nuevo módem C1X, que según Apple es hasta dos veces más rápido que el C1 del iPhone 16e y consume 30 % menos energía que el del iPhone 16 Pro. La pantalla mantiene las 6,1 pulgadas con tecnología OLED y un brillo máximo de 1.200 nits en HDR. Y sí, ahora el modelo “e” por fin incluye MagSafe.Aquí viene la parte incómoda. El iPhone 17e sigue teniendo una sola cámara trasera. Es un sensor de 48 megapíxeles que permite un recorte para lograr un zoom 2x con calidad óptica. Funciona bien en teoría, pero no es un teleobjetivo dedicado. Otros fabricantes en este rango de precio ofrecen dos o tres cámaras físicas. Además, el diseño prácticamente no cambia frente al 16e. En Europa cuesta 719 euros. En Alemania se habla incluso de 699 euros según algunos medios. Eso lo pone en competencia directa con equipos Android que ofrecen pantallas de 120 hercios, varias cámaras y baterías más grandes. Apple apuesta por su ecosistema, por Apple Intelligence y por la integración con iOS 26. La duda es si eso basta para quien compara especificaciones fríamente.Apple está jugando una estrategia muy calculada. Mantener el precio y subir la memoria es un mensaje potente en un año donde los costos de componentes están subiendo. Además, integrar el A19 significa que este modelo económico va a recibir funciones de Apple Intelligence, como traducción en tiempo real en Mensajes y FaceTime, filtros de llamadas desconocidas y herramientas de edición con inteligencia artificial. También incluye funciones satelitales para emergencias durante dos años desde la activación. Eso puede marcar diferencia para quienes viajan o viven en zonas rurales.El iPhone 17e va a estar disponible en más de 70 países desde el 11 de marzo. Colores: negro, blanco y rosa suave. Apple también va a ofrecer planes de pago mensuales y descuentos por entregar modelos antiguos. En Estados Unidos, cambiar un iPhone 13 puede dar hasta 599 dólares de crédito con operador. Con Apple Trade In, el crédito puede llegar a 195 dólares. La estrategia es clara: facilitar el salto al nuevo modelo sin tocar la etiqueta principal de precio.Este lanzamiento forma parte de una semana intensa para Apple. También presentó el nuevo iPad Air con chip M4. Ese modelo mantiene precios de 599 dólares para 11 pulgadas y 799 dólares para 13 pulgadas. Apple está reforzando su gama media. Según CNBC, el iPhone 17e es importante para competir en mercados sensibles al precio frente a Samsung, Google y fabricantes chinos.El 17e incluye resistencia al agua y polvo con certificación IP68, que permite inmersión hasta 6 metros durante 30 minutos en condiciones de laboratorio. La carga rápida por USB-C puede llevar la batería al 50 % en unos 30 minutos con adaptador de 20 vatios o superior. El vidrio Ceramic Shield 2 promete tres veces más resistencia a rayones frente a la generación anterior.También hay un ángulo ambiental. El dispositivo usa 30 % de materiales reciclados, 85 % de aluminio reciclado en la carcasa y 100 % de cobalto reciclado en la batería. La fabricación emplea 55 % de electricidad renovable en la cadena de suministro. Apple quiere avanzar hacia su meta de neutralidad de carbono para 2030.El iPhone 17e mantiene el precio y duplica la memoria. Mejora potencia y suma MagSafe. Tiene límites en cámara y diseño. ¿Vale la pena para ti? Cuéntame qué opinas y escucha más tecnología cada mañana en Flash Diario.BibliografíaApple NewsroomUSA TodayCNBCBFMTVBildSternConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Luna roja 2026

    Play Episode Listen Later Mar 2, 2026 11:53 Transcription Available


    Luna roja 2026El eclipse lunar total de marzo 2026 será visible en América, Asia y OceaníaPor Félix Riaño @LocutorCoLa única luna roja de 2026 ocurrirá el 3 de marzo y millones podrán verla en directo.En la madrugada del 3 de marzo de 2026 vamos a tener un espectáculo que no ocurre todos los meses: un eclipse lunar total. Es decir, la famosa luna roja o “luna de sangre”. Durante casi una hora, nuestro satélite va a verse de color cobrizo mientras cruza por la sombra más oscura de la Tierra.La fase total va a comenzar a las 11:04 en Tiempo Universal Coordinado y va a alcanzar su punto máximo a las 11:33. En total, el eclipse completo va a durar 5 horas y 39 minutos.La noticia tiene un detalle importante: no todo el planeta va a poder verlo. América, el este de Asia, Australia y Nueva Zelanda sí. Europa y África no. ¿Por qué ocurre eso si la Luna es la misma para todos?La mala noticia: no todos podrán verla.Un eclipse lunar total ocurre cuando el Sol, la Tierra y la Luna quedan alineados. La Tierra se coloca en el medio y su sombra cubre completamente la Luna. Esa sombra tiene dos partes: una más suave llamada penumbra y otra más oscura llamada umbra.Cuando la Luna entra en la umbra, comienza la fase parcial. Parece como si alguien estuviera dando un mordisco al disco lunar. Luego, cuando queda completamente dentro de la umbra, empieza la totalidad.En esta ocasión, la totalidad va a durar 58 minutos. Eso significa que durante casi una hora vamos a ver la Luna teñida de rojo. Según datos recopilados por NASA y por Time and Date, más del 40 % de la población mundial va a poder observar al menos parte de la fase total. Estamos hablando de más de tres mil millones de personas.La mejor vista va a estar en el oeste de América del Norte, en la región del Pacífico y en Oceanía. Allí la Luna va a estar alta en el cielo durante la totalidad.Aquí viene el contraste. En Europa, incluida España, Alemania, Francia o Italia, la Luna va a estar bajo el horizonte durante la fase total. Eso significa que no va a ser visible. Lo mismo va a ocurrir en África.En América Latina la situación va a variar mucho según la ciudad. En México se va a ver completa. En ciudades como Bogotá o Santiago de Chile, la Luna va a estar muy baja y el amanecer va a competir con el color rojizo. En Buenos Aires el eclipse va a ser apenas penumbral, es decir, el cambio de brillo va a ser muy leve.Además, hay un factor que nadie controla: las nubes. En algunas ciudades la probabilidad histórica de nubosidad en esa fecha es alta. Eso puede arruinar la experiencia aunque el fenómeno esté ocurriendo.Y hay otra confusión frecuente. Mucha gente cree que la Luna se vuelve roja por “algo raro” o por contaminación. En realidad es pura física. La atmósfera de la Tierra dispersa más la luz azul y deja pasar la roja. Es el mismo efecto que vemos en los atardeceres. Como explica la NASA, es como si todos los amaneceres y atardeceres del planeta se proyectaran al mismo tiempo sobre la superficie lunar.La buena noticia es que ver un eclipse lunar total es completamente seguro. No se necesitan gafas especiales, a diferencia de los eclipses solares. Se puede observar a simple vista. Unos binoculares o un pequeño telescopio van a ayudar a notar mejor los matices del color.Si vives en América, Asia oriental o Australia, conviene buscar un lugar con poco brillo artificial y con el horizonte despejado. En el este de Estados Unidos la Luna se va a ocultar durante la totalidad, así que habrá que madrugar mucho. En la costa oeste va a verse con mayor comodidad.Y si estás en Europa o África, todavía hay opciones. Muchos observatorios van a transmitir el evento en línea. El Griffith Observatory y otros centros científicos suelen ofrecer transmisiones en directo.Después de este evento, la próxima luna roja visible a gran escala no va a llegar hasta finales de 2028. Eso convierte a la de marzo de 2026 en la única oportunidad del año para ver una totalidad.El eclipse va a coincidir con el llamado Wurmmond o Luna de Gusano, nombre tradicional del plenilunio de marzo en culturas de Norteamérica. Marca el momento en que la tierra empieza a descongelarse y aparecen los primeros gusanos tras el invierno.En India, un eclipse lunar recibe el nombre de Chandra Grahan. En algunas tradiciones antiguas se interpretaba como el momento en que un ser mitológico “devoraba” la Luna. Hoy sabemos que se trata de una alineación orbital perfectamente predecible.Los eclipses siguen ciclos llamados Saros, que duran alrededor de 18 años. Gracias a estos ciclos, los astrónomos pueden calcular con precisión cuándo y dónde será visible cada fenómeno.Además, durante la totalidad la Luna pierde brillo. Eso hace que estrellas cercanas se vuelvan más visibles de lo habitual. En esta ocasión, el eclipse ocurrirá cuando la Luna esté en la constelación de Leo. Será una buena oportunidad para ubicar a Regulus, una de sus estrellas más brillantes.El 3 de marzo de 2026 vamos a vivir la única luna roja del año. América, Asia oriental y Oceanía van a tener el mejor espectáculo. Europa y África deberán seguirlo en línea. Marca la fecha y prepara el despertador.Y si te gusta entender el cielo sin complicaciones, sigue el pódcast Flash DiarioEl 3 de marzo de 2026 la Luna se volverá roja durante casi una hora y no todos podrán verla.Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Nano Banana 2 explicado

    Play Episode Listen Later Feb 27, 2026 16:53 Transcription Available


    Google mejora generación de imágenes con Gemini 3.1 Flash Image más rápido y consistentePor Félix Riaño @LocutorCoGoogle lanza Nano Banana 2, nuevo modelo de imágenes con más velocidad, texto preciso y hasta resolución 4KAyer hablábamos del nuevo Samsung Galaxy S26 y de cómo integra inteligencia artificial de Google. Hoy vamos a mirar otra pieza de ese mismo ecosistema. Google acaba de lanzar Nano Banana 2, que en realidad se llama Gemini 3.1 Flash Image. Es el nuevo modelo para crear imágenes con inteligencia artificial dentro de la app Gemini, en el buscador y hasta en herramientas de edición de video como Flow.¿Qué cambia frente a la versión anterior? Google promete más velocidad, mejor seguimiento de instrucciones y mayor coherencia cuando aparecen varios personajes en la misma imagen. Además, puede generar imágenes desde 512 píxeles hasta resolución 4K. Y eso abre preguntas importantes: ¿es realmente mejor que Nano Banana Pro? ¿Qué pasa con otras opciones como Midjourney, DALL·E o Firefly?Pero más velocidad trae nuevas dudasNano Banana nació en agosto de 2025 y se volvió viral. En solo cuatro días atrajo a 13 millones de usuarios nuevos a la app Gemini. Para octubre ya había generado más de 5.000 millones de imágenes. Luego llegó Nano Banana Pro en noviembre, con mejor calidad y más control en el texto dentro de las imágenes.Ahora Google combina lo mejor de ambos mundos. Nano Banana 2 usa la arquitectura Gemini 3.1 Flash Image. “Flash” significa rapidez. La idea es generar imágenes casi al instante, pero manteniendo buena calidad. Google dice que puede conservar la identidad de hasta cinco personajes en una misma escena y respetar hasta 14 objetos diferentes sin que cambien de forma o estilo en cada intento. Eso es útil para crear cómics, storyboards o campañas publicitarias donde los personajes deben verse iguales en cada imagen.También mejora la escritura dentro de las imágenes. Por ejemplo, si haces una tarjeta de cumpleaños o un anuncio con texto, ahora las letras salen más legibles y con menos errores.El problema es que cada vez es más difícil distinguir una imagen real de una creada por inteligencia artificial. Herramientas como Nano Banana 2 pueden producir paisajes, retratos y escenas con iluminación realista y texturas muy detalladas. Según encuestas citadas por CNET, la mayoría de personas cree haber visto imágenes hechas con IA, pero menos de la mitad se siente segura de poder identificarlas.Esto afecta redes sociales, campañas políticas, publicidad y hasta tareas escolares. Además, existe el debate sobre derechos de autor. Empresas creativas y estudios de cine han expresado preocupación por el uso de imágenes que podrían basarse en obras protegidas.Google intenta responder a esto con marcas de agua invisibles llamadas SynthID y con credenciales C2PA, un estándar que permite verificar si una imagen fue generada con IA y cómo se creó. Pero esa verificación funciona mejor cuando el contenido viene directamente de herramientas de Google.Al mismo tiempo, la competencia no se queda quieta. OpenAI tiene DALL·E y el generador de video Sora. Midjourney sigue siendo fuerte en arte estilizado. Adobe Firefly apuesta por integración directa con Photoshop y herramientas profesionales. Cada plataforma tiene ventajas distintas en estilo, control o integración empresarial.Nano Banana 2 ya está reemplazando a las versiones anteriores dentro de la app Gemini. En los modos “Fast”, “Thinking” y “Pro” ahora se usará este nuevo modelo por defecto. Los usuarios de planes pagos como Google AI Pro y Ultra podrán seguir accediendo a Nano Banana Pro desde un menú adicional cuando necesiten máxima precisión factual.También se integra en Google Search, en el modo IA y en Google Lens, en 141 países. Está disponible en navegadores de escritorio y móviles, y en herramientas como AI Studio, Vertex AI en Google Cloud y Google Ads. Incluso en Flow, la plataforma de edición de video de Google, ahora es el generador de imágenes predeterminado.La apuesta es clara: Google quiere que la generación de imágenes sea rápida, cotidiana y conectada con información en tiempo real desde el buscador. Eso puede ayudar a crear infografías, diagramas educativos o visualizaciones de datos más exactas.La gran pregunta es si esta velocidad masiva va a aumentar el volumen de imágenes artificiales circulando en internet. Y también si los usuarios aprenderán a verificar lo que ven antes de compartirlo.Nano Banana 2 permite elegir diferentes proporciones de imagen. Puedes crear formato cuadrado para Instagram, vertical para historias o panorámico para pantallas anchas. La resolución máxima es 4K, que equivale a 3.840 por 2.160 píxeles. Eso significa más de 8 millones de píxeles en una sola imagen.Otra mejora es el uso de “conocimiento del mundo” en tiempo real. El modelo puede consultar información actualizada desde el buscador para representar lugares o conceptos con mayor precisión. Por ejemplo, si pides una imagen de un museo específico, puede basarse en referencias visuales reales.En el contexto del Galaxy S26 que mencionamos ayer, esto muestra cómo Google está fortaleciendo todo su ecosistema de IA. El teléfono, el buscador, la app Gemini y las herramientas en la nube comparten modelos cada vez más potentes.Para quienes crean contenido, esto significa menos tiempo editando y más iteraciones rápidas. Para educadores, puede facilitar la creación de material visual didáctico. Para empresas, abre nuevas opciones en publicidad digital automatizada.Pero siempre habrá alternativas. Midjourney suele destacar en arte conceptual. DALL·E se integra con ChatGPT. Adobe Firefly apuesta por entornos profesionales con licencias más controladas. Elegir dependerá de qué necesitas: velocidad, estilo artístico, integración empresarial o control legal.Nano Banana 2 combina rapidez y calidad en la generación de imágenes con IA dentro del ecosistema Google. Mejora texto, coherencia de personajes y resolución hasta 4K. La competencia sigue fuerte y el debate sobre autenticidad continúa. Cuéntame qué opinas y síguenos en Spotify en Flash Diario.BibliografíaTechCrunchArs TechnicaCNBCEngadgetCNETBlog oficial de GoogleConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Samsung Galaxy S26 Ultra - Privacidad real o puro marketing

    Play Episode Listen Later Feb 26, 2026 18:18 Transcription Available


    Samsung Galaxy S26 Ultra estrena pantalla antiespías y pone en aprietos a la inteligencia artificialPor Félix Riaño @LocutorCoSamsung presentó la nueva serie Galaxy S26 y, aunque la marca insiste en que estamos ante la era del “teléfono con IA”, la verdadera conversación no gira alrededor de asistentes virtuales. El foco está en una innovación de hardware que, por ahora, solo tiene el modelo más caro: una pantalla con privacidad integrada que oscurece el contenido cuando alguien intenta mirar desde un ángulo lateral.La familia está compuesta por Galaxy S26, S26 Plus y Galaxy S26 Ultra. A primera vista, el diseño cambia muy poco frente a la generación anterior. Pantallas AMOLED de hasta 120 hercios, resistencia al agua IP68 y cámaras de alta resolución siguen presentes. Pero hay diferencias que conviene analizar con calma, sobre todo si alguien está pensando en cambiar de teléfono este año.La función que realmente diferencia al UltraEl Galaxy S26 Ultra mantiene una pantalla de 6,9 pulgadas con resolución de 3.120 x 1.440 píxeles. Integra el procesador Snapdragon 8 Elite Gen 5 en varios mercados y promete mejoras de rendimiento cercanas al 19 % en CPU y 39 % en tareas de inteligencia artificial frente al modelo anterior.Sin embargo, el elemento que más llama la atención es el llamado “Privacy Display”. Se trata de una tecnología integrada en el panel OLED que limita el ángulo de visión. Cuando se activa, la pantalla se ve oscura o casi negra desde los lados, arriba o abajo. Solo quien está frente al dispositivo puede leer con claridad lo que aparece en pantalla.A diferencia de los protectores físicos de privacidad, que reducen el brillo todo el tiempo, esta solución puede activarse o desactivarse desde los ajustes rápidos. Además, se puede configurar para que funcione únicamente en aplicaciones específicas, en notificaciones o cuando el usuario introduce contraseñas.Según Samsung, el desarrollo de esta tecnología tomó cinco años. Para muchos analistas, es el rasgo que realmente diferencia al Ultra en una generación considerada continuista. A diferencia de los protectores físicos de privacidad, que reducen el brillo todo el tiempo, esta solución puede activarse o desactivarse desde los ajustes rápidos. Además, se puede configurar para que funcione únicamente en aplicaciones específicas, en notificaciones o cuando el usuario introduce contraseñas.Según Samsung, el desarrollo de esta tecnología tomó cinco años. Para muchos analistas, es el rasgo que realmente diferencia al Ultra en una generación considerada continuista.Mucha inteligencia artificial, pero ¿qué es realmente nuevo?Samsung centra buena parte de su discurso en la inteligencia artificial. La serie Galaxy S26 incluye herramientas como edición de fotos mediante texto, borrado de ruido en videos incluso en aplicaciones de terceros, organización automática de capturas de pantalla y filtros de llamadas con resúmenes generados por IA.También se refuerza el papel de Bixby, el asistente propio de la marca, que ahora puede entender órdenes más naturales para activar ajustes del sistema sin que el usuario conozca el nombre exacto de cada función.No obstante, muchas de estas mejoras dependen de software y de alianzas con servicios externos, como Gemini de Google o modelos de lenguaje de terceros. Esto abre la puerta a que algunas funciones puedan llegar a modelos anteriores mediante actualizaciones.En otras palabras, no todas las novedades están atadas al nuevo hardware.Precio al alza y almacenamiento base más altoEn Estados Unidos, el Galaxy S26 base arranca en 899,99 dólares, frente a los 799,99 dólares del modelo anterior. El S26 Plus sube a 1.099,99 dólares. El Galaxy S26 Ultra se mantiene en 1.299,99 dólares.En el Reino Unido también se registran aumentos. Samsung atribuye parte del incremento a la presión en el mercado global de memoria, impulsada por la demanda de centros de datos dedicados a inteligencia artificial.Una decisión relevante es la eliminación de la versión de 128 GB. Ahora el almacenamiento base parte de 256 GB en toda la serie. En el caso del Ultra, se ofrecen versiones de 256 GB, 512 GB y 1 TB.Cámaras y batería: ajustes más que revoluciónEl Galaxy S26 Ultra conserva el sensor principal de 200 megapíxeles, acompañado de lentes adicionales que permiten zoom óptico y grabación en 8K a 30 cuadros por segundo. Se anuncian mejoras en apertura y procesamiento para capturar más luz en escenas nocturnas.La batería del Ultra sigue siendo de 5.000 miliamperios hora. La marca promete llegar al 75 % de carga en aproximadamente 30 minutos con un cargador de 60 vatios. El modelo base aumenta su batería a 4.300 miliamperios hora, mientras el Plus se mantiene en 4.900.En comparación con el Galaxy S25, las mejoras en batería y cámara son graduales. No hay cambios drásticos en hardware, sino ajustes en eficiencia y procesamiento.¿Vale la pena cambiar?Para quienes tienen un Galaxy S25, el salto parece limitado. El rendimiento será algo mejor, la batería del modelo base crece ligeramente y la inteligencia artificial es más profunda, pero la experiencia general se mantiene muy cercana.En cambio, quienes usan modelos más antiguos podrían notar un cambio más amplio, especialmente si optan por el Ultra.La pantalla con privacidad integrada es, por ahora, la innovación más concreta y visible. En un mercado donde muchos avances se apoyan en software replicable, esta característica representa una diferencia difícil de copiar mediante una simple actualización.La pregunta final es sencilla: ¿la privacidad en pantalla justifica pagar por el modelo más costoso? Para quienes trabajan con información sensible en espacios públicos, puede ser un argumento sólido. Para otros usuarios, la decisión dependerá más del presupuesto que de la tecnología.BibliografíaCNEThttps://www.cnet.com/tech/mobile/this-one-killer-feature-sets-the-samsung-galaxy-s26-ultra-apart-from-all-other-phones/The Independenthttps://www.independent.co.uk/extras/indybest/gadgets-tech/phones-accessories/samsung-galaxy-s26-ultra-price-pre-order-b2927437.htmlMashablehttps://mashable.com/article/every-samsung-galaxy-unpacked-announcement-s26TechRadarhttps://www.techradar.com/phones/samsung-galaxy-phones/samsung-galaxy-s26-ultra-hands-on-impressionsEngadgethttps://www.engadget.com/mobile/smartphones/samsung-galaxy-s26-vs-galaxy-s25-whats-changed-and-which-one-should-you-buy-181515367.htmlForbeshttps://www.forbes.com/sites/jaymcgregor/2026/02/25/samsung-galaxy-s26-price-specs-features-camera-release-date/The Vergehttps://www.theverge.com/tech/884239/samsung-galaxy-s26-plus-price-specs-geminiWiredhttps://www.wired.com/story/samsung-galaxy-s26-series-galaxy-unpacked/Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    El misterioso avión espacial chino vuelve al espacio

    Play Episode Listen Later Feb 25, 2026 10:27 Transcription Available


    Dragón divino en órbitaAvión espacial chino Shenlong inicia cuarta misión secreta en órbita baja terrestrePor Félix Riaño @LocutorCoChina lanzó el avión espacial reutilizable Shenlong a órbita baja en su cuarta misión experimental.China volvió a activar uno de sus proyectos más reservados en el espacio. El 6 de febrero de 2026 despegó desde el Centro de Lanzamiento de Satélites de Jiuquan, en el desierto del Gobi, el avión espacial Shenlong, cuyo nombre significa “Dragón Divino”. Es su cuarta misión orbital. Las anteriores comenzaron en septiembre de 2020, mayo de 2023 y septiembre de 2024. Duraron dos días, 276 días y 266 días respectivamente.Esta vez, las autoridades confirmaron el lanzamiento, pero no explicaron qué experimentos realiza en órbita baja terrestre, es decir, a unos 350 kilómetros de altura. Esa distancia es similar a la de la Estación Espacial Internacional. Sabemos que Shenlong es reutilizable y que puede permanecer meses alrededor de la Tierra. Pero la gran pregunta es sencilla: ¿qué está haciendo realmente allá arriba?Avanza en silencio y genera preguntasShenlong viajó al espacio a bordo de un cohete Larga Marcha 2F. Este mismo tipo de cohete lanzó en 2011 el laboratorio Tiangong-1. El vehículo quedó en órbita baja terrestre y comenzó una misión cuyo tiempo total aún no ha sido revelado.En 2024, el observador austríaco Felix Schöfbänker captó imágenes del vehículo con un telescopio de 35 centímetros de diámetro. Las fotografías mostraban estructuras desplegadas que podrían ser paneles solares o antenas. Las estimaciones indican que Shenlong mide cerca de 10 metros de largo. Es un tamaño parecido al del avión espacial estadounidense X-37B, que mide 8,8 metros.Según explicó Space.com, el gobierno chino define la misión como una prueba de tecnologías reutilizables para facilitar viajes espaciales de ida y vuelta más económicos en el futuro.El punto que genera debate es otro. En sus tres misiones anteriores, Shenlong liberó uno o más objetos en órbita. Esto no se supo por comunicados oficiales, sino por el seguimiento del ejército de Estados Unidos, empresas privadas de vigilancia espacial y astrónomos aficionados.Algunos de esos objetos demostraron capacidad de transmisión. Otros mostraron propulsión independiente. Además, Shenlong realizó maniobras de acercamiento y acoplamiento con esos objetos. Estas acciones se conocen como operaciones de encuentro y proximidad, o RPO.Las RPO permiten acercarse a un satélite para inspeccionarlo, repararlo o retirarlo. También podrían utilizarse para interferir con equipos de otros países. Esa doble posibilidad genera inquietud.De acuerdo con la fundación Secure World Foundation, citada por Economic Times, este tipo de maniobras tiene aplicaciones civiles y estratégicas. El problema es que la falta de información alimenta sospechas.Por ahora, no hay evidencia pública de que Shenlong esté diseñado como arma directa. Su tamaño limita la carga útil. Su bahía interna es reducida, similar al espacio de carga de una camioneta. Además, cuando reingresa a la atmósfera lo hace planeando a unos 321 kilómetros por hora. Esa velocidad es muy inferior a la de un proyectil balístico.Expertos consideran más probable que China esté probando sistemas autónomos, gestión térmica para misiones largas, generación de energía en órbita y técnicas avanzadas de encuentro con satélites.El contexto global también influye. Estados Unidos mantiene activo su propio avión espacial, el X-37B, que ya acumula ocho misiones desde 2010. Ambos programas comparten discreción.Según explicó PrimeTimer, la competencia tecnológica en órbita es cada vez más intensa. Las capacidades de permanecer meses en el espacio y maniobrar con precisión se han convertido en habilidades muy valoradas.Más transparencia podría reducir tensiones. Cuando un país no explica sus objetivos, otros imaginan escenarios extremos.El concepto de avión espacial reutilizable busca reducir costos frente a los antiguos transbordadores espaciales, que requerían enormes equipos y presupuestos. Hoy los vehículos son más pequeños, automáticos y diseñados para múltiples vuelos.Shenlong ya demostró permanencias superiores a ocho meses. Eso implica avances en protección térmica, administración de energía y resistencia de materiales.Las operaciones RPO también están siendo desarrolladas por otras potencias. Con miles de satélites en órbita baja, la capacidad de maniobrar con precisión ayuda a evitar colisiones y gestionar basura espacial.Al mismo tiempo, el espacio se ha convertido en un escenario de competencia estratégica. China avanza en su programa lunar con planes de llevar astronautas antes de 2030. Estados Unidos impulsa el programa Artemis. En ese contexto, cada avance tecnológico es observado con atención.El reto será establecer reglas internacionales que mantengan el uso del espacio como un entorno seguro y estable.China lanzó el avión espacial Shenlong en su cuarta misión. Sabemos que prueba tecnología reutilizable y maniobras avanzadas en órbita. Lo que no sabemos es el detalle de sus experimentos. ¿Te genera tranquilidad o inquietud este nivel de reserva? Cuéntame en comentarios y sigue el pódcast en Spotify: Flash Diario

    Agente autónomo fuera de control

    Play Episode Listen Later Feb 24, 2026 11:53 Transcription Available


    Una directora de alineación en Meta conectó un agente de inteligencia artificial a su correo. El sistema empezó a borrar mensajes sin permiso y ella tuvo que correr físicamente a su computador para detenerlo.Por Félix Riaño @LocutorCoAgente OpenClaw casi elimina correos de directora de seguridad en Meta por error humanoLa escena parece de película, pero pasó en la vida real. Summer Yue, directora de seguridad y alineación de inteligencia artificial en Meta, conectó a su bandeja de Gmail un agente autónomo llamado OpenClaw. Su idea era simple: que el sistema revisara su correo, sugiriera qué archivar y esperara confirmación antes de borrar nada.Lo que ocurrió fue distinto. El agente empezó a eliminar mensajes sin pedir autorización. Desde su teléfono, Yue intentó detenerlo escribiendo “no hagas eso” y “STOP OPENCLAW”. No funcionó. Según contó en la red social X, tuvo que correr hasta su Mac mini “como si estuviera desactivando una bomba” para matar los procesos manualmente. ¿Cómo puede pasar algo así justo a alguien que trabaja en que la IA sea segura?Pero la experta también fallóUna lección incómoda sobre confianza tecnológica.Summer Yue trabaja en el laboratorio de “superinteligencia” de Meta. Su rol es estudiar cómo lograr que los sistemas de inteligencia artificial sigan instrucciones humanas y no actúen en contra de nuestros intereses.El agente que utilizó, OpenClaw, es un proyecto de código abierto creado por Peter Steinberger. Es popular porque puede operar 24 horas al día, conectarse a servicios reales y ejecutar tareas sin intervención constante. A diferencia de otros asistentes, no necesita una aprobación manual en cada paso. Eso lo hace atractivo para quienes quieren automatizar tareas repetitivas.Yue ya lo había probado en una bandeja de prueba, con correos poco relevantes. Allí había funcionado bien durante semanas. Ganó confianza. Entonces decidió conectarlo a su bandeja principal, mucho más grande y con información importante. Le indicó que revisara y sugiriera, pero que no actuara sin confirmación. El problema ocurrió cuando el sistema realizó un proceso de “compactación” interna para manejar la gran cantidad de datos. Durante ese proceso, el agente perdió la instrucción original y comenzó a borrar mensajes más antiguos que el 15 de febrero que no estuvieran en una lista de conservación.Este caso abrió varias preguntas. La primera es técnica: ¿cómo un sistema puede ignorar una instrucción explícita como “confirma antes de actuar”? Según explicó Yue, el agente perdió el contexto inicial durante la reorganización de datos. Eso muestra una limitación conocida en modelos de lenguaje: cuando manejan grandes volúmenes de información, pueden resumir o descartar partes del contexto. Si la orden crítica se pierde, el sistema actúa según reglas incompletas.La segunda pregunta es de seguridad. OpenClaw funciona con permisos amplios, incluso acceso de nivel administrador. Eso significa que puede leer, borrar o modificar archivos y cuentas conectadas. El investigador Gary Marcus comparó esta práctica con darle todas tus contraseñas a alguien desconocido que promete ayudarte. Es una metáfora fuerte, pero ayuda a entender el riesgo.Además, no es un caso aislado. Según Bloomberg, otro ingeniero permitió que OpenClaw accediera a su iMessage. El agente terminó enviando más de 500 mensajes no solicitados a contactos al azar. Cuando un sistema autónomo tiene acceso directo a servicios reales, cualquier error escala rápido. Y si la persona no puede detenerlo desde el móvil, el control humano queda en desventaja frente a la velocidad de la máquina.Después de detener el proceso desde su Mac mini, Yue publicó capturas de pantalla donde el agente reconocía que había “violado” la instrucción y pedía disculpas. Ella misma calificó lo ocurrido como un “rookie mistake”, un error de principiante. Admitió que se confió porque el flujo había funcionado bien en su bandeja de prueba.El creador de OpenClaw ha dicho en entrevistas que está priorizando reforzar las salvaguardas de seguridad antes de añadir funciones de facilidad de uso. Eso significa más controles, más confirmaciones y límites de acceso. También recordó que el proyecto todavía está en etapa temprana y no debe tratarse como una herramienta totalmente confiable.Incluso figuras como Elon Musk comentaron en X que dar acceso total a estos agentes es como entregar las llaves de toda tu vida digital. Más allá de la ironía, el punto central es que los sistemas autónomos necesitan barreras técnicas y hábitos responsables por parte de los usuarios.Este episodio no muestra que la inteligencia artificial sea malvada. Muestra que la automatización sin supervisión puede generar consecuencias rápidas. La alineación no es un interruptor que se enciende y listo. Es un proceso continuo de pruebas, errores y mejoras.OpenClaw se volvió tendencia en Silicon Valley porque promete automatizar tareas complejas: organizar correos, enviar mensajes, ejecutar scripts y manejar aplicaciones completas. Funciona como un agente que interpreta instrucciones en lenguaje natural y luego actúa directamente en el sistema operativo.El concepto de “alineación” en inteligencia artificial significa que el sistema debe comportarse de acuerdo con valores y objetivos humanos. En empresas como Meta, OpenAI o Google, hay equipos dedicados a investigar cómo evitar que modelos avanzados generen respuestas dañinas o ejecuten acciones indebidas. Yue llegó a Meta después de acuerdos estratégicos en el sector de datos y modelos avanzados, y su papel está precisamente en estudiar estos riesgos.Curiosamente, al mismo tiempo surgieron reportes de usuarios de Gemini que perdieron historiales de chat tras actualizaciones del sistema. Google calificó esos casos como fallos técnicos y anunció restauraciones. Aunque son situaciones distintas, ambos casos recuerdan algo básico: los datos digitales dependen de sistemas complejos que pueden fallar.Para cualquier persona que use herramientas automáticas, la recomendación técnica es clara: probar primero en entornos controlados, limitar permisos, mantener copias de seguridad y entender qué nivel de acceso se está otorgando. Un agente autónomo puede trabajar rápido, pero también puede equivocarse rápido.Un agente de inteligencia artificial borró correos de la directora de seguridad de Meta tras perder una instrucción. Ella logró detenerlo a tiempo. La historia deja una enseñanza: automatiza con cuidado y nunca entregues acceso total sin respaldo. ¿Tú confiarías tu correo a un agente autónomo? Cuéntamelo y sigue el pódcast en Spotify:Flash Diario

    Nueva jefa en Microsoft Gaming

    Play Episode Listen Later Feb 23, 2026 11:44 Transcription Available


    Asha Sharma lidera XboxAsha Sharma asume como CEO de Microsoft Gaming y promete reforzar Xbox y creatividad humanaPor Félix Riaño @LocutorCoMicrosoft nombra a Asha Sharma CEO de su división de videojuegos tras la salida de Phil Spencer. La nueva etapa mezcla consola, nube e inteligencia artificial con foco en juegos creados por personas.Microsoft anunció un cambio histórico en su división de videojuegos. Phil Spencer, quien llevaba 38 años en la empresa y 12 años al frente de Xbox, se va a retirar. En su lugar llega Asha Sharma, ejecutiva que venía liderando productos de inteligencia artificial dentro de Microsoft. Ahora será la nueva directora ejecutiva de Microsoft Gaming y reportará directamente a Satya Nadella.La noticia llega en un momento delicado. Las ventas de consolas Xbox han caído frente a PlayStation y Nintendo. Además, los ingresos por videojuegos bajaron cerca de 10 % en el último trimestre reportado, mientras otras áreas de Microsoft crecían alrededor de 17 %. ¿Puede una líder con perfil en inteligencia artificial recuperar la confianza de los jugadores tradicionales de Xbox?Un giro inesperado hacia la inteligencia artificialPara entender este momento hay que mirar atrás. Phil Spencer tomó el control de Xbox en 2014, cuando la marca atravesaba problemas con el lanzamiento de Xbox One. En esos años se habló incluso de vender la división. Spencer defendió mantener hardware, estudios y software bajo un mismo equipo. Impulsó Xbox Game Pass y lideró compras gigantescas como ZeniMax por 7.500 millones de dólares y Activision Blizzard por 68.700 millones de dólares.Hoy Microsoft Gaming reúne casi 40 estudios. Allí viven sagas como Halo, Call of Duty, World of Warcraft, Diablo y Candy Crush Saga. Son mundos que mueven millones de jugadores cada mes.En ese contexto entra Asha Sharma. Ella trabajó en Meta, fue directora de operaciones en Instacart y luego regresó a Microsoft para liderar CoreAI, el grupo que desarrolla herramientas de inteligencia artificial. En su primer mensaje dijo algo directo: no va a llenar el ecosistema con “basura hecha por IA”. Aseguró que los juegos seguirán siendo arte creado por personas.La llegada de Asha Sharma ha generado debate. Muchos jugadores temen que Xbox se convierta en un laboratorio de inteligencia artificial y pierda identidad. Durante los últimos años, Microsoft llevó varios juegos exclusivos a consolas rivales. Eso hizo que parte de la comunidad sintiera que Xbox estaba perdiendo su esencia.Además, los números no ayudan. Según datos de mercado citados por medios especializados, las ventas de consolas Xbox cayeron hasta 70 % en la temporada navideña de 2025 frente al año anterior. Mientras tanto, Sony y Nintendo mantienen una base fuerte de usuarios.También hubo recortes de personal y cierre de estudios. Más de 2.500 puestos relacionados con videojuegos se han eliminado desde 2024. Todo esto ocurre mientras el desarrollo de juegos es cada vez más costoso y largo.A esto se suma otra pregunta. Microsoft está invirtiendo miles de millones en inteligencia artificial. ¿Se usará la IA para ayudar a los desarrolladores o para reducir costos? Sharma dice que no perseguirá eficiencia rápida a costa de calidad. Pero muchos fans quieren ver acciones concretas, como nuevos juegos exclusivos potentes y una consola con identidad clara.En sus primeras declaraciones, Asha Sharma marcó tres prioridades. Primero, grandes juegos. Habló de personajes inolvidables y de historias que hagan sentir algo. Segundo, el regreso de Xbox como consola central para sus fans más fieles. Y tercero, el futuro del juego en múltiples dispositivos.Eso significa que Xbox va a seguir en consolas, pero también en PC, móviles y nube. Microsoft ya permite jugar títulos propios en otras plataformas y en streaming. Sharma dice que buscará romper barreras para que un desarrollador cree una vez y llegue a muchos dispositivos.Matt Booty fue ascendido a director de contenido y seguirá supervisando los estudios. Phil Spencer acompañará la transición hasta el verano. No habrá cambios inmediatos en la estructura de estudios.La gran prueba llegará pronto. En 2026 se esperan lanzamientos de alto impacto, incluido Grand Theft Auto VI, que estará disponible en Xbox Series X y Series S. Si Xbox logra atraer jugadores con catálogo fuerte y experiencia estable, el nuevo liderazgo ganará tiempo y confianza.Xbox cumple 25 años desde el lanzamiento de su primera consola en 2001. En ese cuarto de siglo, la marca pasó de ser una apuesta arriesgada frente a Sony a convertirse en una red global con más de 500 millones de usuarios activos mensuales, según cifras compartidas por Microsoft.La compra de Activision Blizzard por 68.700 millones de dólares fue una de las más grandes en la historia del entretenimiento digital. Esa operación dio a Microsoft franquicias como Call of Duty y World of Warcraft. También consolidó su presencia en juegos móviles gracias a King, creadora de Candy Crush.Asha Sharma tiene 36 años y formación en negocios. Antes de volver a Microsoft, gestionó en Instacart operaciones que movían más de 30.000 millones de dólares en volumen bruto de mercancías. Su experiencia ha estado centrada en plataformas digitales que escalan a millones de usuarios.En paralelo, Microsoft desarrolla herramientas de inteligencia artificial como Copilot y servicios en la nube que pueden integrarse en el desarrollo de videojuegos. La promesa es usar estas tecnologías para acelerar pruebas, mejorar gráficos o ayudar a los equipos creativos, sin reemplazar el trabajo humano.El reto será equilibrar tradición y tecnología. La industria del videojuego vive una transformación profunda. Consolas, nube, suscripciones y ahora IA conviven en un mismo tablero.Phil Spencer se retira y Asha Sharma toma el mando de Xbox en un momento desafiante. La promesa es reforzar la consola y usar inteligencia artificial con responsabilidad. Vamos a seguir atentos a los próximos anuncios y lanzamientos. Cuéntame qué esperas tú del futuro de Xbox y sigue Flash Diario en Spotify.BibliografíaMicrosoft BlogCNBCThe VergeVarietyForbesPCMagConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    30 kilómetros de teletransportación real

    Play Episode Listen Later Feb 20, 2026 13:19 Transcription Available


    Teletransportación cuántica en BerlínLa fibra comercial de Berlín logró teletransportar información cuántica con 90 % de fidelidad promedio realPor Félix Riaño @LocutorCoDeutsche Telekom y Qunnect prueban teletransportación cuántica sobre fibra óptica comercial en red activa urbana.En Berlín ocurrió algo que suena a película de ciencia ficción, pero no lo es. La empresa alemana Deutsche Telekom y la empresa estadounidense Qunnect lograron teletransportar información cuántica a través de 30 kilómetros de fibra óptica comercial que ya estaba en uso.Sí, escuchaste bien. No estaban en un laboratorio aislado. Estaban usando la misma infraestructura por donde circulan llamadas, mensajes y datos de internet. Y lo hicieron con una fidelidad promedio del 90 %. En algunos momentos alcanzaron el 95 %.Pero calma. No estamos hablando de personas viajando de un punto a otro. Estamos hablando de qubits. ¿Qué significa eso realmente? ¿Y por qué importa que esto ocurra fuera de un laboratorio?La física es frágil fuera del laboratorioPrimero vamos a entender qué pasó.Un qubit es la unidad básica de información en computación cuántica. A diferencia de un bit tradicional, que solo puede ser cero o uno, el qubit puede estar en una combinación de ambos estados al mismo tiempo. Eso permite cálculos que un computador clásico tardaría miles de años en resolver.La teletransportación cuántica no mueve materia. Lo que hace es transferir el estado cuántico de una partícula a otra distante, usando un fenómeno llamado entrelazamiento cuántico. Dos partículas quedan conectadas de tal forma que lo que le pasa a una afecta a la otra, aunque estén separadas por kilómetros.En enero de 2026, en una red activa de Berlín, los investigadores teletransportaron qubits generados por una fuente coherente débil a lo largo de 30 kilómetros de fibra óptica comercial. Esto ocurrió mientras el cable transportaba tráfico normal de internet.La plataforma utilizada fue el sistema Carina de Qunnect, que genera pares de fotones entrelazados y corrige automáticamente perturbaciones ambientales.Y aquí está el detalle interesante: la teletransportación se realizó a una longitud de onda de 795 nanómetros. Esa frecuencia es útil para conectar computadores cuánticos de átomos neutros, relojes atómicos y sensores cuánticos.Ahora bien, lograr esto en la vida real no es sencillo.Las redes cuánticas son extremadamente sensibles. Vibraciones, cambios de temperatura, interferencias eléctricas, incluso el paso de un camión pesado pueden alterar la señal en la fibra. En una ciudad como Berlín, con infraestructura subterránea compleja, eso es un desafío constante.Además, la fidelidad del 90 % significa que en promedio 9 de cada 10 estados cuánticos llegaron correctamente reconstruidos. Eso es alto, pero todavía no es perfecto. Para aplicaciones comerciales masivas, se necesitará acercarse mucho más al 100 %.También hay otra duda razonable. La computación cuántica todavía no está lista para uso general. Muchos prototipos requieren enfriamiento criogénico extremo. Entonces, ¿para qué teletransportar qubits si aún no hay redes globales de computadores cuánticos funcionando?Por otro lado, la seguridad. Se dice que los computadores cuánticos del futuro podrían romper los sistemas de cifrado actuales. Algunos expertos impulsan la criptografía poscuántica. Otros creen que se necesitarán redes basadas en física cuántica, como la distribución de claves cuánticas. Pero esa tecnología tiene límites de distancia cercanos a 200 kilómetros y ha recibido críticas por posibles vulnerabilidades técnicas.Así que la pregunta es: ¿esto es un avance sólido o es todavía una demostración experimental con muchas piezas faltantes?Lo que cambia el panorama es el contexto.No fue una simulación. Fue una red comercial operativa. Eso significa que los equipos de Qunnect se instalaron en racks reales, bajo control del operador, y convivieron con tráfico digital normal.Según declaraciones del equipo, el objetivo es avanzar hacia configuraciones con múltiples nodos y mayores distancias. Eso permitiría conectar centros de datos cuánticos en distintas ubicaciones y repartir carga de cálculo.En paralelo, en Nueva York, Qunnect trabajó con Cisco Systems para demostrar intercambio de entrelazamiento en una red metropolitana de 17,6 kilómetros. Allí lograron más de 1,7 millones de pares entrelazados por hora en pruebas locales y 5.400 pares por hora sobre fibra desplegada, con fidelidad superior al 99 %.Eso valida algo importante: estas tecnologías pueden funcionar en ciudades reales, con ruido real y cables reales.¿Significa que mañana tendremos internet cuántico en casa? No. Pero sí indica que las bases técnicas están saliendo del laboratorio y entrando en infraestructura existente.El concepto de internet cuántico busca conectar computadores cuánticos, sensores y relojes atómicos para que trabajen como una red distribuida. Esto permitiría, por ejemplo, sincronización ultra precisa, redes de sensores ambientales de alta sensibilidad y comunicaciones resistentes a ciertos tipos de espionaje.En Europa existe un interés estratégico en este campo. Se habla de soberanía tecnológica y de reducir dependencia de infraestructuras externas.En Estados Unidos, varias empresas también exploran arquitecturas tipo “hub and spoke”, donde un nodo central gestiona el entrelazamiento y otros nodos funcionan con equipos a temperatura ambiente, reduciendo costos.La publicación técnica del experimento de Berlín está disponible en arXiv, lo que permite que la comunidad científica revise los datos. Eso es relevante porque no se trata solo de un comunicado corporativo.Todavía faltan componentes como memorias cuánticas estables y repetidores cuánticos para ampliar distancias de cientos a miles de kilómetros. Pero estos ensayos muestran que la fibra óptica ya desplegada puede ser parte del futuro cuántico.Berlín logró teletransportar qubits por 30 kilómetros de fibra comercial con 90 % de fidelidad. No es ciencia ficción. Es infraestructura real probando redes cuánticas.¿Confías más en criptografía matemática o en seguridad basada en física cuántica? Cuéntamelo.Sigue el pódcast en Spotify:Flash DiarioBibliografíaDeutsche TelekomLight ReadingTom's HardwareQuantum Computing ReportReutersConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Google compone, Sony investiga ¿Quién cobrará por la música IA?

    Play Episode Listen Later Feb 19, 2026 26:07 Transcription Available


    Gemini crea canciones con Lyria 3 mientras Sony desarrolla tecnología para medir influencias y futuras regalías en música generada por IA Por Félix Riaño @LocutorCoGemini ya genera canciones con IA y Sony prepara herramientas para rastrear qué música humana influyó en ellasGoogle acaba de activar una nueva función en Google Gemini. Ahora puedes escribir una frase y obtener una canción de 30 segundos. Rap, pop, rock, afrobeat. Con letra o instrumental.El modelo que lo hace posible se llama Lyria 3 y viene del equipo de Google DeepMind. Está disponible desde el 18 de febrero de 2026 para mayores de 18 años en ocho idiomas, incluido el español.Pero mientras Google invita a jugar con la música, otra empresa trabaja en algo muy distinto. Sony Group desarrolla una tecnología capaz de estimar cuánto influyen canciones humanas en una pista creada por IA.Una crea. La otra mide. ¿Estamos entrando en la era del contador musical digital?Crear ahora es muy fácil. Rastrear es complejo.Primero, lo nuevo de Google.En la app de Gemini, vas a “Herramientas” y eliges “Crear música”. Escribes algo como: “Pop latino, ritmo alegre, guitarra acústica, voz femenina suave, letra sobre una mascota”. En segundos tienes un archivo de 30 segundos listo para descargar en MP3 o en video.Si subes una foto o un clip, Gemini analiza la imagen y compone algo que encaje con esa atmósfera. La portada la genera el modelo Nano Banana. Todo queda listo para compartir.Google aclara que el objetivo no es crear el próximo éxito mundial. Es expresión rápida. Una broma. Una banda sonora para un Short.Las canciones llevan una marca invisible llamada SynthID. Es un watermark digital que identifica que el audio fue generado por IA de Google. También puedes subir un archivo a Gemini y preguntarle si fue creado con su sistema.Eso es el lado creativo. Ahora viene el lado contable.La industria musical lleva años preguntando lo mismo: ¿con qué datos se entrenan estos modelos?Plataformas como Suno y Udio enfrentaron demandas por presunto uso de grabaciones protegidas sin licencia. El debate gira en torno a una pregunta sencilla: si una IA aprende escuchando música humana, ¿quién debe recibir pago?Ahí entra Sony.El equipo de Sony AI publicó una investigación sobre un sistema capaz de estimar qué canciones influyen en una pista generada por IA. En pruebas académicas, el sistema puede calcular porcentajes aproximados de influencia.Si el desarrollador coopera, se analizan datos internos del modelo. Si no coopera, se comparan las canciones generadas con grandes catálogos musicales.El reto es técnico y enorme. En pruebas con conjuntos relativamente pequeños, atribuir influencias puede tardar horas usando equipos muy potentes. Llevar eso a escala industrial es un desafío todavía abierto.Pero la intención es clara: construir una base para repartir regalías cuando la IA participe en la creación musical.No estamos ante una pelea directa entre Google y Sony. Estamos viendo dos movimientos en el mismo tablero.Google apuesta por integrar texto, imagen, video y ahora sonido en un solo ecosistema creativo. Con millones de usuarios activos en Gemini, la generación musical se vuelve cotidiana.Sony, que controla enormes catálogos históricos, explora cómo transformar la atribución en una herramienta de negociación y reparto económico.Si la música generada por IA crece en plataformas de streaming, será necesario decidir cómo se distribuyen los ingresos.La gran pregunta es esta: ¿vamos a tener un sistema donde cada canción generada por IA venga acompañada de un cálculo de influencia?La tecnología ya está en desarrollo. Lo que falta es que la industria acuerde cómo usarla.Lyria 3 está disponible en inglés, alemán, español, francés, hindi, japonés, coreano y portugués. Google planea ampliar idiomas y mejorar calidad.Los usuarios gratuitos pueden crear canciones con límites diarios. Los planes de pago permiten más generación.Además, Google integra Lyria 3 con YouTube Dream Track para crear música personalizada en Shorts. Eso puede impactar directamente en la producción masiva de contenido corto.Mientras tanto, empresas y sellos discográficos desarrollan herramientas de detección basadas en análisis estadístico y técnicas de “machine unlearning”. Estos sistemas intentan identificar qué partes del conocimiento de un modelo influyen en un resultado específico.El debate no es si la IA puede hacer música. Ya puede.El debate es cómo se mide su deuda con la música humana.Gemini ahora crea canciones en segundos. Sony trabaja en medir qué música humana influyó en ellas.Estamos ante creatividad instantánea y contabilidad algorítmica al mismo tiempo.¿Te entusiasma más crear o medir?Escucha más episodios en Spotify: Flash Diario BibliografíaNumeramaFrandroidBFMTVGoogle BlogComplete Music UpdateElectronics WeeklyConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Latam-GPT regional

    Play Episode Listen Later Feb 18, 2026 12:05


    Latam-GPT regionalLatam-GPT, el modelo abierto chileno, busca reducir sesgos y fortalecer soberanía tecnológica latinoamericanaPor Félix Riaño @LocutorCoChile presentó Latam-GPT, un modelo de inteligencia artificial abierto entrenado con datos de América Latina y el Caribe para mejorar la representación cultural y lingüística en sistemas de IAChile acaba de dar un paso que puede cambiar la conversación sobre inteligencia artificial en nuestra región. El 10 de febrero, en Santiago, se presentó Latam-GPT, un modelo de lenguaje abierto creado desde América Latina y pensado para América Latina. El proyecto fue coordinado por el Centro Nacional de Inteligencia Artificial de Chile y reunió a más de 60 instituciones y cerca de 200 especialistas de al menos 15 países.La idea es sencilla de entender: muchos sistemas de inteligencia artificial que usamos a diario fueron entrenados sobre todo con información en inglés y con referencias culturales del norte global. Eso deja por fuera parte de nuestra historia, nuestras palabras y nuestras formas de hablar. ¿Puede una región participar en la revolución de la IA si su propia voz casi no aparece en los datos?La región quiere su propia voz digitalLatam-GPT fue desarrollado sobre la arquitectura abierta Llama 3.1, creada por Meta. Tiene 70.000 millones de parámetros. Cuando hablamos de parámetros, nos referimos a los valores internos que el modelo ajusta para aprender patrones del lenguaje. Entre más parámetros, mayor capacidad para captar relaciones complejas entre palabras y contextos.Para entrenarlo, el equipo reunió más de 300.000 millones de fragmentos de texto, lo que equivale a unos 230.000 millones de palabras. También se habla de más de ocho terabytes de información. Ocho terabytes son ocho millones de megabytes, un volumen comparable al contenido de millones de libros digitales. Todo ese material fue recopilado con permisos y licencias, según el Centro Nacional de Inteligencia Artificial.El modelo fue entrenado principalmente en español y portugués, los idiomas mayoritarios de la región. Además, el plan es incorporar lenguas indígenas como el mapudungun y el rapa nui. En su primera fase se entrenó en la nube de Amazon Web Services, y en 2026 se va a utilizar un supercomputador en la Universidad de Tarapacá, en el norte de Chile, con una inversión cercana a cinco millones de dólares.El contexto es claro. Estudios citados por los impulsores del proyecto indican que el español representa alrededor del 4 % de los datos usados para entrenar grandes modelos de lenguaje. El portugués apenas ronda el 2 %. Eso significa que más del 90 % del material proviene de otros idiomas y otras realidades culturales.Cuando un modelo aprende sobre todo con datos de Estados Unidos o Europa, puede responder mejor a preguntas sobre el sitio de Calais en 1346 que sobre el sitio de Chillán en la independencia chilena. Puede generar imágenes estereotipadas cuando se le pide representar a una persona latinoamericana. Ese sesgo no siempre es malintencionado, pero sí refleja un desequilibrio en los datos.Al mismo tiempo, el mercado global de la inteligencia artificial está dominado por grandes empresas de Estados Unidos y China, con presupuestos de cientos de millones o miles de millones de dólares. Latam-GPT fue desarrollado con un presupuesto cercano a 550.000 dólares, según varias fuentes. Algunos académicos advierten que, con esa diferencia de recursos, competir de tú a tú con modelos comerciales será muy difícil. Entonces surge otra pregunta: ¿el objetivo es competir o construir infraestructura pública regional?Los responsables del proyecto insisten en que Latam-GPT no nace como un chatbot para el público general. No es una copia directa de servicios como ChatGPT o Gemini. Es una base tecnológica abierta que gobiernos, universidades y empresas pueden adaptar a sus propias necesidades.Al estar disponible en plataformas como Hugging Face y GitHub, cualquier desarrollador puede descargar el modelo, ajustarlo y crear aplicaciones locales. Por ejemplo, la empresa chilena Digevo ya anunció que va a usarlo para desarrollar sistemas de atención al cliente para aerolíneas y comercios, capaces de entender modismos, velocidad de habla y expresiones regionales.El presidente chileno, Gabriel Boric, afirmó durante el lanzamiento que la región quiere sentarse a la mesa de la economía digital del futuro. La apuesta es construir soberanía tecnológica. Eso implica tener capacidad de decisión sobre los datos, las reglas y los usos de la inteligencia artificial en servicios públicos, salud, educación y justicia.Latam-GPT se suma a otras iniciativas regionales como SEA-LION en el sudeste asiático y UlizaLlama en África. Todas comparten una idea: adaptar la inteligencia artificial a contextos culturales específicos y reducir la dependencia de modelos extranjeros.El proyecto fue coordinado por el Centro Nacional de Inteligencia Artificial de Chile, con apoyo del Ministerio de Ciencia de ese país, el Banco de Desarrollo de América Latina y el Caribe, conocido como CAF, y otras organizaciones académicas y sociales de países como Colombia, Brasil, México, Perú, Uruguay y Argentina.Aunque el presupuesto inicial fue modesto en comparación con los gigantes tecnológicos, el plan contempla nuevas inversiones en infraestructura. El supercomputador que se instalará en la Universidad de Tarapacá permitirá entrenar versiones futuras con mayor capacidad y posiblemente añadir funciones multimodales, es decir, que el modelo pueda trabajar también con imágenes, audio o video.Otro punto clave es la gobernanza. Al tratarse de un modelo abierto, será necesario establecer reglas de uso, evaluaciones de sesgo, documentación sobre los datos empleados y mecanismos de actualización. La apertura facilita auditorías y adaptaciones locales, pero también exige responsabilidad en su implementación.Desde el punto de vista económico, un modelo regional puede reducir costos para startups y entidades públicas que no pueden pagar licencias elevadas de servicios internacionales. También puede impulsar la investigación en universidades latinoamericanas y formar talento especializado en inteligencia artificial.La gran incógnita es la sostenibilidad a largo plazo. Los modelos de lenguaje requieren actualizaciones constantes, nuevos datos y capacidad de cómputo. Si la coalición de más de 60 instituciones se mantiene activa, Latam-GPT puede convertirse en una plataforma estable. Si pierde financiación, el impulso inicial podría diluirse.En resumen, Latam-GPT es un modelo de inteligencia artificial abierto creado en Chile con apoyo regional para mejorar la representación cultural y lingüística de América Latina. Busca reducir sesgos y fortalecer soberanía tecnológica. Ahora la pregunta es cómo se va a usar y si logrará consolidarse como infraestructura pública regional.Te invito a seguir el pódcast en Spotify y a compartir este episodio de Flash Diario. Tu apoyo ayuda a que más personas entiendan la tecnología que está transformando nuestro mundo.BibliografíaAI BusinessEuronewsUPIIntelliNewsFrance InfoThe Tico TimesConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Anillo de fuego solar

    Play Episode Listen Later Feb 17, 2026 10:03 Transcription Available


    Anillo de fuego solarAnillo de fuego solar del 17 de febrero de 2026 visible en la AntártidaPor Félix Riaño @LocutorCoEl primer eclipse solar de 2026 será anular, con un “anillo de fuego” visible desde la Antártida y parcialmente desde Sudamérica y África.Este 17 de febrero de 2026 el cielo va a ofrecer uno de esos espectáculos que parecen de ciencia ficción. La Luna va a pasar justo delante del Sol y va a dejar un aro brillante alrededor. A eso se le llama eclipse solar anular, o como muchos lo conocen, “anillo de fuego”.Pero hay un detalle importante: apenas alrededor del 2 % de la población mundial va a poder verlo en persona. El lugar privilegiado será una franja muy estrecha de la Antártida. En el sur de Argentina, Chile y partes del sur de África se va a observar como eclipse parcial.¿Por qué esta vez casi nadie habla del eclipse? ¿Qué lo hace diferente del eclipse total que vimos en 2024 en América? Vamos a entenderlo paso a paso.Pocas personas podrán verlo directamenteUn eclipse solar ocurre cuando la Luna se interpone entre la Tierra y el Sol. Eso sucede en fase de Luna nueva. Pero no siempre vemos un eclipse. La razón es geométrica. La órbita de la Luna está inclinada. Muchas veces pasa un poco por encima o por debajo del Sol desde nuestra perspectiva.En este caso, el alineamiento será casi perfecto. La Luna cubrirá hasta el 96 % del disco solar en la zona central del fenómeno. El problema es que la Luna estará un poco más lejos de la Tierra en su órbita elíptica. Al estar más lejos, se verá ligeramente más pequeña. Por eso no tapará el Sol por completo.El resultado será un círculo oscuro con un borde brillante alrededor. Ese borde es el Sol que sigue asomando. El fenómeno completo comenzará a las 09:56 en Tiempo Universal Coordinado y terminará a las 14:27. En el punto máximo, el anillo podrá durar hasta 2 minutos y 20 segundos. La sombra recorrerá un corredor de unos 4.282 kilómetros de largo y 616 kilómetros de ancho sobre el hielo antártico.Aquí viene el punto curioso. Este eclipse no generará grandes concentraciones de turistas. La franja de anularidad cruza una región de la Antártida donde casi no vive nadie. Se estima que apenas algunas decenas de científicos en bases como Concordia o Mirny podrán observar el anillo completo si el clima lo permite.Eso explica por qué el evento pasa casi desapercibido en muchos países. En el sur de Argentina y Chile el Sol aparecerá “mordido”, pero no se verá el anillo completo. En zonas del sur de África también será parcial. Para millones de personas en el hemisferio norte, simplemente no será visible.Otro punto clave es la seguridad. En un eclipse total, durante unos instantes se puede mirar sin gafas especiales cuando el Sol queda completamente cubierto. Aquí eso nunca ocurrirá. Siempre habrá luz solar directa. Mirar sin protección puede causar daño permanente en la retina. Gafas de sol normales no sirven. Se necesitan gafas certificadas para observación solar o métodos indirectos como un proyector estenopeico hecho con cartón.Aunque este eclipse sea remoto, forma parte de un ciclo más amplio. Los eclipses suelen venir en temporadas. Cuando ocurre uno solar, alrededor de dos semanas antes o después suele haber uno lunar. Y eso es lo que va a pasar ahora.El 3 de marzo de 2026 habrá un eclipse lunar total visible desde América, Asia, Australia y el Pacífico. En ese caso, la Tierra se interpondrá entre el Sol y la Luna. La Luna se teñirá de rojo. Ese fenómeno sí será visible para millones de personas y no requerirá gafas especiales.Además, el calendario astronómico de 2026 viene cargado. El 12 de agosto de 2026 habrá un eclipse solar total visible desde Groenlandia, Islandia y el norte de España. En 2027 habrá otro eclipse anular visible desde el sur de Chile y Argentina, con una duración mucho mayor.Así que, aunque este “anillo de fuego” sea exclusivo de la Antártida, el espectáculo de los eclipses seguirá ofreciendo oportunidades más accesibles muy pronto.Un dato fascinante es la coincidencia de tamaños aparentes entre el Sol y la Luna. El Sol es unas 400 veces más grande que la Luna. Pero también está aproximadamente 400 veces más lejos. Esa proporción hace que, vistos desde la Tierra, ambos parezcan casi del mismo tamaño.Cuando la Luna está en su punto más cercano a la Tierra, puede cubrir el Sol por completo y producir un eclipse total. Cuando está más lejos, como ahora, deja ese aro brillante.Se calcula que alrededor de 176 millones de personas podrán ver al menos una fase parcial de este eclipse. Aun así, eso representa una pequeña fracción del planeta.Y un detalle interesante: en regiones como el noroeste de Estados Unidos no se verá ningún eclipse solar hasta el año 2045. En otras palabras, la geografía decide quién puede vivir estos momentos. Todo depende de estar exactamente en el lugar correcto cuando la sombra pasa. Es pura mecánica celeste.Resumen y recomendaciónEl 17 de febrero de 2026 veremos un eclipse solar anular con un “anillo de fuego” visible desde la Antártida. Será breve, remoto y científicamente fascinante. Si no puedes verlo, prepárate para el eclipse lunar del 3 de marzo.Cuéntame si alguna vez has visto un eclipse y qué sentiste. BibliografíaCNNSky at Night MagazineSpace.comLive ScienceConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Estación Espacial Internacional a plena tripulación

    Play Episode Listen Later Feb 16, 2026 10:54 Transcription Available


    Cuatro astronautas ya están en la Estación Espacial Internacional tras la primera evacuación médica en 65 años. La misión Crew-12 marca un momento delicado y simbólico para la exploración humana.Por Félix Riaño @LocutorCoTripulación Crew-12 llega a la Estación Espacial tras evacuación médica histórica de la NASALa Estación Espacial Internacional vuelve a estar completa. Este sábado 14 de febrero, cuatro nuevos astronautas llegaron al laboratorio orbital que gira a unos 400 kilómetros sobre la Tierra. Viajaron a bordo de una cápsula Dragon impulsada por un cohete Falcon 9 de SpaceX. Su llegada ocurre después de un hecho poco común: en enero, la NASA tuvo que evacuar a un astronauta por un problema de salud. Fue la primera vez en 65 años de vuelos espaciales humanos que una misión se acortó por razones médicas. Durante un mes, la estación funcionó con solo tres tripulantes. ¿Qué pasó allá arriba y qué va a cambiar ahora con esta nueva misión?Pero hay un detalle que inquieta.La misión se llama Crew-12. Está formada por Jessica Meir y Jack Hathaway, de la NASA; Sophie Adenot, de la Agencia Espacial Europea; y Andrei Fedyaev, de la agencia rusa Roscosmos. Despegaron el viernes 13 de febrero desde Cabo Cañaveral, en Florida, y tardaron unas 34 horas en alcanzar la Estación Espacial Internacional.Cuando la cápsula se acopló, a las 20:15 GMT del sábado, Sophie Adenot saludó con un “Bonjour” desde el espacio. Dos horas después, se abrieron las escotillas. Ya eran siete personas flotando dentro de una estructura del tamaño de un campo de fútbol que orbita la Tierra a unos 28.000 kilómetros por hora.Durante el último mes, la estación operó con solo tres astronautas: un estadounidense y dos rusos. La NASA decidió pausar caminatas espaciales y reducir algunos experimentos mientras esperaba refuerzos. Ahora, con siete tripulantes, la actividad científica se va a normalizar.Todo comenzó el 7 de enero. Uno de los astronautas de la misión anterior presentó un problema de salud que la NASA describió como serio. Por privacidad médica, la agencia no reveló su identidad ni la naturaleza del incidente. La decisión fue traer de regreso a los cuatro integrantes de esa misión más de un mes antes de lo previsto.La cápsula amerizó en el Pacífico, cerca de San Diego. Pasaron su primera noche en un hospital antes de volver a Houston. Mientras tanto, la estación quedó con una tripulación reducida. Aunque no hubo emergencias técnicas, sí se limitaron actividades. En un entorno donde cada tarea está programada al minuto, perder cuatro personas altera toda la logística.Y aquí surge la pregunta: si las misiones van a ser más largas, incluso hacia la Luna o Marte, ¿qué va a pasar cuando haya un problema médico y no exista la opción de regresar en pocas horas?La NASA decidió no modificar los chequeos médicos previos al lanzamiento de Crew-12. Tampoco añadió equipos médicos extra. Confía en los protocolos actuales. Pero al mismo tiempo, reconoce que la medicina espacial necesita evolucionar.La nueva tripulación no solo va a retomar experimentos pendientes. También va a probar tecnologías médicas pensadas para viajes más lejanos. Por ejemplo, un sistema de ultrasonido que usa inteligencia artificial y realidad aumentada para guiar al propio astronauta durante el examen, sin depender tanto de expertos en la Tierra.Van a ensayar un filtro que convierte agua potable en líquido apto para uso intravenoso en emergencias. También estudiarán cómo la microgravedad afecta el flujo sanguíneo y la formación de coágulos en las venas del cuello.Jessica Meir, quien ya pasó 205 días en órbita en 2019 y participó en la primera caminata espacial femenina junto a Christina Koch, ahora regresa como comandante. Y hay un detalle interesante: Christina Koch está asignada a la misión Artemis II, que podría despegar hacia la Luna a partir del 3 de marzo si las pruebas del cohete Space Launch System avanzan sin más fugas de hidrógeno.Mientras la estación recibe nuevos tripulantes, en Florida se siguen reemplazando sellos y haciendo pruebas de combustible para el programa lunar. Todo está conectado: lo que ocurre hoy en órbita baja va a influir en cómo la humanidad regrese a la Luna y, más adelante, intente llegar a Marte.La Estación Espacial Internacional lleva más de 25 años habitada de forma continua. Es uno de los proyectos de ingeniería más costosos jamás construidos, con una inversión estimada entre 150.000 y 160.000 millones de dólares a lo largo de su vida útil.Está previsto que en 2030 la estación sea desorbitada de forma controlada y caiga en una zona remota del océano Pacífico. Crew-12 será una de las últimas tripulaciones que vivan allí durante varios meses.Sophie Adenot se convierte en la segunda mujer francesa en viajar al espacio, después de Claudie Haigneré en la década de 1990. Para la Agencia Espacial Europea, esta misión llamada εpsilon será la más larga realizada por uno de sus astronautas hasta ahora, con hasta nueve meses en órbita.La cooperación internacional sigue siendo uno de los pilares de la estación. A pesar de tensiones políticas en la Tierra, Estados Unidos, Europa y Rusia continúan trabajando juntos en órbita. Desde las ventanas de la estación no se ven fronteras. Esa frase la repiten muchos astronautas, y vuelve a cobrar sentido en un momento en el que el proyecto se acerca a su final.La Estación Espacial Internacional vuelve a tener siete tripulantes después de una evacuación médica histórica. Crew-12 va a retomar la ciencia y probar nuevas herramientas médicas para misiones más lejanas. La exploración espacial entra en una etapa de transición. ¿Estamos preparados para cuidar la salud humana lejos de casa? Te leo en comentarios y sigue el pódcast en Flash Diario.

    ¿Puede un cometa cambiar de sentido?

    Play Episode Listen Later Feb 13, 2026 12:13 Transcription Available


    El Cometa 41P frenó, se detuvo y cambió sentido tras acercarse al Sol en 2017Por Félix Riaño @LocutorCoUn análisis de imágenes del telescopio Hubble reveló que el cometa 41P invirtió su rotación después del perihelio en 2017En 2017, un cometa de apenas medio kilómetro de diámetro hizo algo que parece imposible. El cometa 41P/Tuttle–Giacobini–Kresák, conocido como 41P, redujo su velocidad de giro de forma drástica cuando se acercó al Sol. Pasó de rotar cada 20 horas a hacerlo cada 53 horas en pocas semanas. Luego desapareció de nuestra vista porque quedó demasiado cerca del Sol desde la perspectiva de la Tierra. Meses después, cuando volvió a ser visible, los datos mostraron algo aún más sorprendente: estaba girando en sentido contrario y completaba una vuelta cada 14,4 horas. ¿Cómo puede un objeto espacial frenar hasta detenerse y luego empezar a girar al revés?¿Y si el cometa se frenó hasta cero?Planteamiento descriptivoPara entender esta historia vamos a empezar por lo básico. Un cometa es una mezcla de roca y hielo que quedó como residuo del nacimiento del Sistema Solar hace unos 4.600 millones de años. Muchos de estos cuerpos viajan en órbitas muy alargadas. El cometa 41P pertenece a la llamada “familia de Júpiter”. Eso significa que su órbita está muy influenciada por la gravedad de Júpiter y que tarda menos de 20 años en dar una vuelta alrededor del Sol. En su caso, tarda unos 5,4 años.En abril de 2017, 41P llegó a su perihelio, que es el punto de la órbita más cercano al Sol. Allí recibió más calor. El hielo comenzó a transformarse en gas, un proceso llamado sublimación. Ese gas salió disparado al espacio y formó una nube llamada coma. También aparecieron chorros, como si fueran pequeñas mangueras naturales que empujan el cometa.Aquí aparece el detalle que lo cambia todo. Cuando esos chorros de gas salen de forma desigual, actúan como pequeños motores. Si el gas sale más fuerte de un lado que de otro, el cometa recibe un empujón que altera su rotación. Es parecido a lo que ocurre cuando soplas una rueda con aire de un solo lado.Observaciones del telescopio espacial Swift de la NASA mostraron que entre marzo y mayo de 2017 el periodo de rotación pasó de 20 horas a 46 y luego hasta 53 horas. Normalmente los cambios en cometas se miden en minutos. Aquí hablamos de decenas de horas. Es un cambio enorme para un objeto tan pequeño, de unos 500 metros de diámetro.Después de mayo, el cometa quedó oculto por el brillo solar. No había datos. Cuando regresó en diciembre, el telescopio espacial Hubble tomó nuevas imágenes. El astrónomo David Jewitt, de la Universidad de California en Los Ángeles, analizó esas fotos años después. Encontró que el periodo era ahora de 14,4 horas. Eso significa que estaba girando más rápido que antes y en sentido contrario. Para que eso ocurra, tuvo que frenar completamente, llegar a cero y empezar a girar al revés. Los cálculos indican que ese punto de detención pudo ocurrir en junio de 2017.Este hallazgo ayuda a responder una pregunta más grande. ¿Por qué hay menos cometas pequeños de los que esperamos encontrar? Una posible explicación es que muchos se destruyen por su propia rotación. Si los chorros los aceleran demasiado, la fuerza centrífuga puede romperlos.El estudio también estimó que el núcleo de 41P mide cerca de 500 metros. Es pequeño en términos astronómicos. Su tamaño lo hace más vulnerable a cambios rápidos. Además, la fracción activa de su superficie, es decir, la parte que libera gas, bajó de aproximadamente 2,4 en 2001 a cerca de 0,14 en 2017. Eso sugiere que su superficie ha cambiado con el tiempo, tal vez formando una capa más dura que bloquea parte del hielo.Aquí hay otro dato inquietante. Aunque su órbita podría mantenerse estable durante unos 10.000 años, el análisis indica que podría romperse por inestabilidad rotacional en unos 25 años si continúa este comportamiento. Eso es muy poco tiempo en términos cósmicos.El cometa volverá a acercarse al Sol en 2028. Los astrónomos estarán atentos. Nuevos telescopios como el Observatorio Vera C. Rubin en Chile van a observar miles de objetos pequeños. Vamos a tener muchos más datos para entender si 41P es un caso raro o si este fenómeno es más común de lo que pensábamos.El cometa 41P fue observado por primera vez en 1858 por Horace Tuttle. Más tarde fue redescubierto por Michel Giacobini en 1907 y por Ľubor Kresák en 1951. Por eso lleva tres apellidos. Su órbita lo lleva desde un punto un poco más cercano al Sol que la órbita de la Tierra hasta más allá de Júpiter.En 1973 tuvo un gran estallido de brillo y alcanzó magnitud 4, lo que significa que pudo verse a simple vista en cielos oscuros. En 2017 volvió a llamar la atención por razones muy distintas.El estudio de David Jewitt fue publicado como prepublicación en arXiv y aceptado en la revista The Astronomical Journal. Otros astrónomos, como Dennis Bodewits y Jane Luu, han señalado que aunque se habían propuesto modelos teóricos donde un cometa podía invertir su rotación, nunca se había observado algo así con datos tan claros.Este caso también nos enseña que los cometas no son rocas inertes. Son cuerpos dinámicos. Cambian, pierden masa, se fracturan y evolucionan cada vez que se acercan al Sol. Son como fósiles activos del origen del Sistema Solar.Resumen final y recomendaciónEl cometa 41P redujo su giro, se detuvo y comenzó a rotar al revés en 2017. Chorros de gas actuaron como motores naturales que cambiaron su velocidad. Podría romperse en pocas décadas. Vamos a seguir atentos a su regreso en 2028.Cuéntame qué te parece esta historia y sigue el pódcast en Spotify: Flash DiarioBibliografíaPhys.org The New York Times IFLScience arXiv – David Jewitt (2026) DOI: 10.48550/arxiv.2602.06403Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    WhatsApp Web ya permite llamar

    Play Episode Listen Later Feb 12, 2026 21:05 Transcription Available


    WhatsApp Web incorpora llamadas cifradas en navegador con pantalla compartida y soporte progresivo para más usuariosPor Félix Riaño @LocutorCoDespués de casi diez años desde su lanzamiento en 2015, WhatsApp Web va a empezar a permitir llamadas de voz y video directamente desde el navegador. Hasta ahora, si querías llamar desde un computador, tenías que usar el celular o descargar la aplicación de escritorio para Windows o macOS. La versión en el navegador servía para mensajes y envío de archivos, pero no para hablar en tiempo real.La novedad ya está llegando a personas inscritas en el programa beta de WhatsApp Web. En esta primera fase, las llamadas funcionan uno a uno. No hay llamadas grupales todavía. También se puede compartir la pantalla durante una videollamada. Todo mantiene el cifrado de extremo a extremo basado en el protocolo Signal.¿Estamos viendo a WhatsApp convertirse en una herramienta de reuniones desde el navegador?Meta acelera, pero aún hay límites.Planteamiento descriptivoWhatsApp Web nació en 2015 como una extensión del celular. Su función principal era reflejar en el navegador lo que ya estaba en el teléfono. Con el paso de los años fue mejorando en velocidad y estabilidad, pero había una ausencia evidente: no se podía llamar.Mientras tanto, las llamadas de voz llegaron a WhatsApp móvil en 2015 y las videollamadas poco después. En 2021, WhatsApp lanzó aplicaciones de escritorio para Windows y macOS que sí permitían llamadas. El navegador quedó rezagado durante casi una década.Ahora, según reportes de WABetaInfo y medios tecnológicos como 9to5Google y GSM Arena, la función de llamadas está empezando a activarse en la versión web beta. Aparecen botones visibles de “voz” y “video” dentro de los chats individuales. No hace falta instalar nada adicional. Basta con tener el navegador actualizado, cámara y micrófono autorizados, y la sesión vinculada al teléfono mediante código QR.Un detalle técnico importante: estas llamadas usan WebRTC, que es un estándar abierto que permite comunicación en tiempo real dentro del navegador. Es la misma base que usan muchas plataformas de reuniones en línea.Que WhatsApp Web incorpore llamadas es una mejora práctica, pero también abre preguntas sobre seguridad y uso responsable. Las llamadas siguen estando cifradas de extremo a extremo mediante el protocolo Signal. Eso significa que solo las personas que participan en la conversación pueden escuchar o ver el contenido. Ni siquiera Meta puede acceder a esas comunicacionesPero cuando usamos el navegador, entran en juego otros factores. El navegador tiene extensiones instaladas, permisos de cámara y micrófono, notificaciones emergentes. Si el usuario no presta atención a los permisos que concede, puede exponer información privada. Además, compartir pantalla desde el computador implica que la otra persona puede ver documentos, correos o incluso contraseñas si no se tiene cuidado.Al mismo tiempo, WhatsApp enfrenta retos de seguridad social. En paralelo a esta actualización, Meta ha anunciado nuevas pantallas de advertencia cuando alguien es añadido a grupos desconocidos. Medios como la BBC han reportado casos de menores agregados a grupos con adultos desconocidos que intentaban interactuar con ellos. Esto obliga a hablar de educación digital en casa y en colegios.Una herramienta más potente exige mayor conciencia del usuario.Qué va a pasar ahora? En las próximas semanas, la función se va a expandir más allá del programa beta. Primero seguirán siendo llamadas individuales. Luego, según los reportes, llegarán las llamadas grupales con hasta 32 participantes, además de enlaces de llamada y programación de reuniones.Para usuarios de Linux, esta noticia es especialmente útil. No existe una aplicación oficial de escritorio de WhatsApp para Linux. Ahora podrán llamar directamente desde el navegador sin depender del celular. También beneficia a personas que usan computadores corporativos donde no se pueden instalar aplicaciones externas.Si quieres probarlo antes, puedes entrar a WhatsApp Web, ir a Configuración, luego Ayuda y activar la opción de unirte al programa beta. No garantiza acceso inmediato, pero aumenta las probabilidades.Y aquí viene la parte práctica de servicio: revisa ya mismo en tu teléfono la opción “Quién puede añadirme a grupos”. Ve a Ajustes, Privacidad, Grupos, y selecciona “Mis contactos” o “Mis contactos excepto…”. Eso reduce el riesgo de ser añadido a chats desconocidos.La tecnología avanza. La responsabilidad también tiene que avanzar.WhatsApp supera los tres mil millones de usuarios activos mensuales según cifras recientes citadas por medios internacionales. Esa escala convierte cada pequeña actualización en un cambio global.El cifrado que protege estas llamadas está basado en el protocolo Signal, desarrollado originalmente por la organización Signal Foundation. Este sistema cifra los mensajes y llamadas en el dispositivo del emisor y solo se descifran en el dispositivo del receptor.La incorporación de llamadas en navegador también es parte de una tendencia mayor en la industria tecnológica: convertir el navegador en una plataforma completa de aplicaciones. Servicios como Google Meet y otras herramientas de colaboración ya funcionan sobre WebRTC. WhatsApp se suma a esa lógica.Al mismo tiempo, Meta ha anunciado nuevas pantallas de “resumen de seguridad” cuando alguien es agregado a un grupo desconocido. Esa pantalla muestra quién creó el grupo, cuántos miembros tiene y opciones para salir o reportar. La medida responde al aumento de intentos de estafas y fraudes digitales.Si tienes hijos o menores en casa, conviene conversar con ellos sobre no aceptar llamadas ni unirse a grupos de personas que no conocen. También es recomendable activar verificación en dos pasos y usar dispositivos con actualizaciones de seguridad vigentes.Tecnología y educación digital deben ir juntas.Resumen: WhatsApp Web añade llamadas cifradas en navegador. Útiles, pero requieren atención a seguridad y privacidad.Cuéntame qué opinas y sigue el pódcast en Flash Diario.BibliografíaGSM Arena 9to5GoogleWABetaInfo Forbes BBC ghacks Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Audífonos con cámaras, ¿por qué?

    Play Episode Listen Later Feb 10, 2026 14:43 Transcription Available


    Los próximos AirPods Pro podrían integrar cámaras infrarrojas para gestos, audio espacial y funciones de inteligencia artificialPor Félix Riaño @LocutorCoApple vuelve a mover el tablero de los audífonos inalámbricos. Varias filtraciones coinciden en una idea que, hasta hace poco, sonaba extraña: unos AirPods Pro capaces de “ver” el entorno. No se habla de cámaras para fotos o video, sino de sensores infrarrojos integrados en cada auricular. La promesa es clara: nuevos gestos con las manos, mejor audio espacial y una relación más estrecha con la inteligencia artificial de Apple.Las fuentes apuntan a un lanzamiento en 2026 y a un modelo que conviviría con los AirPods Pro actuales. El precio, el nombre y la fecha exacta siguen en discusión. La pregunta es directa: ¿para qué quiere Apple que tus audífonos vean lo que pasa a tu alrededor?SVer no es grabar, pero igual despierta dudas razonables.Las filtraciones parten de un nombre que ya suena familiar en el mundo Apple: Kosutami, un coleccionista de prototipos que suele mostrar piezas reales, aunque no siempre acierta en precios. Según sus mensajes, los próximos AirPods Pro “pueden ver alrededor”.A esto se suma lo dicho desde hace tiempo por el analista Ming-Chi Kuo, quien asegura que Apple trabaja en audífonos con al menos una cámara infrarroja. Estas cámaras no capturan imágenes tradicionales. Funcionan como sensores de profundidad, parecidos al sistema de puntos que usa Face ID en el iPhone.La idea no es nueva. Desde 2024 se habla de usar estos sensores para mejorar el audio espacial y la interacción con Apple Vision Pro. En 2025, Apple incluso recibió una patente relacionada con cámaras para detección de proximidad en dispositivos vestibles. Todo encaja en una misma dirección.Aquí aparece la confusión. ¿Estamos ante unos AirPods Pro 4 completamente nuevos o ante una versión “Pro más Pro” del modelo actual? Las fuentes no se ponen de acuerdo.Kosutami dice que el precio se mantendría en 249 dólares, unos 230 euros al cambio aproximado. Otros filtradores, como Instant Digital, creen que Apple va a lanzar una variante más cara, situada entre los AirPods Pro y los AirPods Max. Eso implicaría un precio cercano a 299 dólares, alrededor de 275 euros.También está el calendario. Apple suele esperar unos tres años entre grandes cambios de hardware. Los AirPods Pro 3 llegaron en 2025. Lanzar otro modelo en 2026 rompe esa costumbre. Por eso, muchos analistas creen que no será un reemplazo total, sino una opción adicional en la tienda.Lo que sí parece bastante firme es el para qué. Estas cámaras infrarrojas servirían para reconocer gestos con las manos, ajustar el sonido según el espacio y mejorar la precisión del audio espacial cuando se usan con Apple Vision Pro.También encajan con el discurso reciente de Tim Cook, que insiste en la “inteligencia visual” como parte del futuro de Apple Intelligence. Para que una inteligencia entienda el entorno, necesita sensores. Si no hay gafas inteligentes aún, los audífonos se vuelven un buen punto de partida.Hoy, lo cierto es esto: Apple no ha confirmado nada. Lo probable es que veamos un modelo con sensores infrarrojos en 2026, presentado en el evento de septiembre junto al iPhone. El nombre y el precio siguen abiertos, pero la dirección tecnológica ya está bastante marcada.El contexto ayuda a entender la jugada. Apple ya vende audífonos en varios escalones: modelos básicos, AirPods 4 en dos versiones, AirPods Pro y AirPods Max. Añadir una variante avanzada de los Pro encaja con esa estrategia.Además, el mercado de audífonos premium está creciendo. Marcas como Bang & Olufsen, Bose y Bowers & Wilkins empujan precios altos con funciones avanzadas. Apple necesita diferenciarse con algo más que cancelación de ruido.Es importante aclarar algo para niños y adultos: estas cámaras no graban video ni toman fotos. Son sensores infrarrojos que detectan luz y movimiento para calcular distancia y forma. Funcionan en segundo plano y alimentan algoritmos, no galerías de imágenes.También es cierto que Apple ya experimentó con actualizaciones intermedias. Los AirPods Pro 2 recibieron cambios importantes sin cambiar de nombre. Así que una versión “AirPods Pro 3 con sensores” no sería extraña dentro de su historia reciente.SeparadorLos próximos AirPods Pro podrían sumar sensores infrarrojos para gestos, audio espacial y funciones de Apple Intelligence. Hoy son filtraciones bien respaldadas, pero siguen siendo rumores. Vamos a estar atentos a 2026.Cuéntame qué te parece esta idea y sigue Flash Diario en SpotifyApple planea AirPods Pro con sensores infrarrojos para gestos, audio espacial e inteligencia artificial, según varias filtraciones coincidentes.Separador

    La pausa asiática que afecta a la IA

    Play Episode Listen Later Feb 9, 2026 10:14 Transcription Available


    Samsung se prepara para enviar HBM4 tras el Año Nuevo Lunar y acelerar la memoria para IAPor Félix Riaño @LocutorCoEl 9 de febrero de 2026, las fábricas de semiconductores en Corea del Sur están operando bajo un calendario especial. El Año Nuevo Lunar, conocido localmente como Seollal, se celebrará el 17 de febrero y los feriados oficiales se extenderán del 16 al 18 de febrero. Durante esos días, gran parte de la actividad industrial del país se detendrá o funcionará de forma limitada. En ese contexto, Samsung Electronics ha confirmado que retomará a pleno ritmo la producción justo después del feriado para comenzar los primeros envíos comerciales de su memoria HBM4 a Nvidia. Esta memoria está destinada a los próximos aceleradores de inteligencia artificial de Nvidia y su calendario de producción está directamente condicionado por esta pausa anual, una de las más relevantes del año para la industria tecnológica asiática.La inteligencia artificial depende de calendarios industriales muy concretosLa inteligencia artificial moderna funciona gracias a centros de datos que procesan enormes volúmenes de información de manera constante. En el núcleo de esos sistemas están los procesadores diseñados por Nvidia, una empresa estadounidense especializada en unidades de procesamiento gráfico, conocidas como GPU. Estos chips destacan por realizar muchos cálculos al mismo tiempo, pero su rendimiento depende directamente de la memoria que los alimenta. High Bandwidth Memory, o HBM, es un tipo de memoria creada para ese propósito. A diferencia de la memoria tradicional, HBM se apila en capas y se coloca muy cerca del procesador, lo que permite mover datos con mayor velocidad y menor consumo energético. La tecnología ha evolucionado por etapas: HBM, HBM2, HBM2E, HBM3, HBM3E y ahora HBM4. Cada generación responde al aumento de demanda provocado por modelos de inteligencia artificial cada vez más grandes. Samsung Electronics ha desarrollado HBM4 usando su proceso DRAM 1c, de sexta generación en la clase de diez nanómetros, junto con una base lógica fabricada con tecnología de cuatro nanómetros.La transición hacia HBM4 ocurre tras un periodo complejo para Samsung. En la generación anterior, HBM3E, la empresa no logró posicionarse con la misma rapidez que SK hynix, otra compañía surcoreana especializada en memoria. SK hynix consiguió convertirse en el principal proveedor de HBM para Nvidia y capturó la mayor parte de los contratos vinculados al auge de la inteligencia artificial. Micron Technology, fabricante estadounidense de memoria, quedó en una posición secundaria en esta categoría. Mientras la demanda de inteligencia artificial siguió creciendo, la capacidad mundial de fabricación de memoria se volvió un recurso limitado. Este problema se agrava cada año alrededor del Año Nuevo Lunar, cuando fábricas en Corea del Sur, China y otros países asiáticos reducen su actividad durante varios días. Esa pausa afecta cadenas de suministro globales y obliga a planificar con precisión qué se fabrica antes y qué se entrega después del feriado.Ante esta situación, Samsung ha organizado su calendario para que la producción y los envíos de HBM4 comiencen inmediatamente después del Seollal. En su complejo industrial de Pyeongtaek, uno de los mayores centros de fabricación de semiconductores del mundo, la empresa está ampliando la línea P4 para producir entre cien mil y ciento veinte mil obleas al mes dedicadas a HBM4. Sumadas a otras líneas, el objetivo es alcanzar alrededor de doscientas mil obleas mensuales, una parte relevante de su producción total de DRAM. Los primeros envíos a Nvidia están previstos para la tercera semana de febrero, en línea con los planes de Nvidia para presentar su nueva plataforma de aceleradores de inteligencia artificial, llamada Vera Rubin, durante la conferencia GTC 2026, programada para marzo. Aunque los analistas estiman que SK hynix mantendrá una mayor cuota de suministro, llegar temprano al mercado permite a Samsung reforzar su posición técnica y comercial.HBM4 introduce mejoras relevantes en eficiencia energética frente a la generación anterior. Esto resulta especialmente importante para centros de datos que operan de forma continua, donde el consumo eléctrico y la refrigeración representan una parte considerable de los costos. Nvidia necesita este tipo de memoria para alcanzar anchos de banda totales superiores a los veinte terabytes por segundo en sus sistemas más avanzados. Sin HBM4, ese nivel de rendimiento no sería viable. Al mismo tiempo, el énfasis de los fabricantes en producir HBM reduce la oferta de memoria convencional para computadores personales y dispositivos móviles, lo que mantiene presión sobre los precios. En este contexto, los fabricantes de memoria ya no influyen solo en componentes, sino en el ritmo general de la innovación tecnológica.)A días del Año Nuevo Lunar, Samsung se prepara para activar la producción y los envíos de HBM4 a Nvidia. Esta memoria será una pieza central de los próximos sistemas de inteligencia artificial. El calendario industrial asiático vuelve a marcar el ritmo global. Escucha más historias como esta y sigue Flash Diario en Spotify.A días del Año Nuevo Lunar, Samsung se alista para enviar HBM4 a Nvidia y acelerar la inteligencia artificial.

    Android rompe el muro de AirDrop

    Play Episode Listen Later Feb 6, 2026 11:24 Transcription Available


    Google va a llevar Quick Share compatible con AirDrop a más móviles Android en 2026Por Félix Riaño @LocutorCoGoogle acaba de confirmar algo que muchas personas llevaban años esperando. La función de compartir archivos entre Android y dispositivos de Apple va a dejar de ser exclusiva de los Pixel 10. Durante una rueda de prensa en Taipéi, Google explicó que Quick Share, con compatibilidad directa con AirDrop, va a llegar a muchos más móviles Android a lo largo de 2026.Esto significa que enviar fotos, vídeos o documentos desde un Android a un iPhone, un iPad o un Mac va a ser tan directo como hoy lo es entre dos iPhone. Sin cables, sin cuentas intermedias y sin aplicaciones extra. Hasta ahora, esta experiencia estaba reservada a una sola familia de teléfonos. Esa etapa se va a terminar. ¿Estamos ante el inicio del fin de una de las barreras más famosas del ecosistema de Apple?La compatibilidad funciona, pero Apple mantiene reglas que aún limitan la experienciaPara entender la noticia hay que volver a finales de 2025. En ese momento, Google sorprendió al mundo tecnológico al permitir que los Pixel 10 enviaran archivos directamente a iPhone, iPad y MacBook usando AirDrop. Fue un movimiento inesperado, porque Apple siempre había protegido esta función como una ventaja cerrada de su ecosistema.Google lo logró integrando esta compatibilidad dentro de Quick Share, el sistema oficial de intercambio de archivos de Android. El resultado fue una transferencia directa, local y rápida, sin pasar por la nube. La clave estuvo en una decisión técnica silenciosa: Google convirtió Quick Share en una aplicación completa, actualizable desde Play Store. Desde ahí, el camino para expandir la función ya estaba preparado.Durante 2025, el equipo de Android dedicó meses a comprobar que la función funcionara bien con iPhone, iPad y Mac. Esa fase ya terminó.El problema hasta ahora era evidente. Aunque la tecnología funcionaba, estaba limitada a los Pixel 10. Para la mayoría de usuarios Android, AirDrop seguía siendo algo lejano. En casas, escuelas y trabajos donde conviven Android y Apple, compartir archivos seguía siendo incómodo. Fotos enviadas por mensajería con pérdida de calidad. Documentos reenviados por correo. Cables que aparecen cuando nadie los quiere usar.Apple ha usado AirDrop durante años como una ventaja silenciosa. No se anuncia mucho, pero quien lo usa sabe lo cómodo que es. Google lo sabe y por eso apunta directamente a ese punto. Google ha citado que Android cuenta con más de tres mil millones de dispositivos activos en el mundo, mientras Apple supera los dos mil millones. Si una pequeña parte de esos equipos empieza a compartir archivos de forma directa entre plataformas, el impacto va a ser enorme.El reto no es técnico solamente. También hay temas de privacidad, permisos y controles visibles para el usuario.Eric Kay, vicepresidente de ingeniería de Android, confirmó que en 2026 Quick Share compatible con AirDrop va a llegar a “muchos más dispositivos”. Eric Kay explicó que Google ya demostró que la función es estable y segura, y que Google ahora está trabajando con fabricantes de Android para integrarla en más modelos. Los anuncios, según Eric Kay, van a llegar “muy pronto”.Algunos nombres ya aparecen en el radar. Nothing ha confirmado que está trabajando en esta compatibilidad. Qualcomm también ha dejado claro que los móviles con procesadores Snapdragon van a estar preparados para usar esta función. Esto apunta a una expansión amplia, tanto en gamas medias como altas.La distribución mediante Play Store permite a Google actualizar Quick Share sin depender de grandes actualizaciones del sistema. Eso acelera el proceso y abre la puerta a que móviles recientes puedan recibir la función sin esperar años. El envío seguirá siendo local, usando Bluetooth para detectar dispositivos cercanos y Wi-Fi para transferir archivos grandes a alta velocidad.Hay un contexto más amplio detrás de esta historia. En Europa, la Ley de Mercados Digitales ha empujado a Apple a adoptar estándares más abiertos como Wi-Fi Aware. Este sistema permite que dispositivos cercanos se descubran y se comuniquen sin depender de soluciones propietarias. Google aprovechó este escenario para hacer compatible Quick Share con AirDrop sin colaboración directa de Apple.Eso sí, existen límites. Para recibir archivos desde Android, los usuarios de iPhone deben activar la opción “Todos durante diez minutos” en AirDrop. Las opciones basadas en contactos siguen siendo exclusivas del entorno Apple. Aun así, el simple hecho de que la transferencia funcione ya cambia la dinámica.Google también confirmó que va a mejorar las herramientas para cambiar de iPhone a Android. Google quiere facilitar el traslado de fotos, vídeos y datos personales de forma directa entre dispositivos. Todo apunta a una estrategia más amplia: reducir la fricción entre ecosistemas y hacer que la elección de un móvil no determine con quién puedes compartir archivos.Quick Share compatible con AirDrop va a dejar de ser un truco exclusivo del Pixel 10. Google va a llevar esta función a muchos más móviles Android en 2026. Compartir archivos entre Android y Apple va a ser más fácil y directo. Cuéntame qué opinas y sigue Flash Diario en Spotify.BibliografíaThe Mac Observer: Google confirma expansión de Quick Share con AirDropAndroid Authority: Google amplía AirDrop en AndroidArs Technica: Google insinúa gran expansión de AirDrop en Android9to5Google: Google adelanta anuncios sobre AirDrop en AndroidDroid Life: AirDrop para Android llegará a más móvilesConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Por qué Artemis II se aplaza otra vez

    Play Episode Listen Later Feb 5, 2026 10:05 Transcription Available


    Fugas de hidrógeno retrasan Artemis IILa misión Artemis II de la NASA se retrasa hasta marzo tras detectar fugas de hidrógeno en una prueba decisiva del cohete lunar.Por Félix Riaño @LocutorCoLa misión Artemis II busca llevar astronautas alrededor de la Luna por primera vez en más de cincuenta años. Para lograrlo, la NASA necesita que cada parte del sistema funcione con total precisión antes del despegue. Por eso realiza pruebas largas y complejas, diseñadas para encontrar errores cuando todavía no hay personas a bordo.En una de esas pruebas, realizada a inicios de febrero, volvió a aparecer un problema que ya había causado dolores de cabeza en el pasado: fugas de hidrógeno líquido durante el llenado del cohete. El fallo obligó a detener la cuenta regresiva simulada y a aplazar el lanzamiento, al menos, un mes.Esto genera una pregunta lógica para cualquier oyente: si este problema ya ocurrió hace tres años, ¿por qué vuelve a repetirse ahora? Y más importante aún: ¿qué tan seguro es enviar personas a la Luna con este tipo de contratiempos?El problema no es nuevo, pero el contexto sí cambió.La prueba que falló se llama wet dress rehearsal, algo así como un ensayo general completo. En esta prueba, el cohete se llena con combustible real y se simula toda la cuenta regresiva, desde horas antes del lanzamiento hasta los últimos minutos previos al encendido.El protagonista de esta historia es el Space Launch System, o SLS, el cohete más potente que ha construido la NASA. Funciona con dos combustibles principales: oxígeno líquido e hidrógeno líquido. Este último se mantiene a unos doscientos cincuenta y tres grados bajo cero, una temperatura tan extrema que vuelve frágiles muchos materiales.Durante el ensayo, los tanques del SLS lograron llenarse casi por completo. Ese paso ya es una victoria técnica. Pero cuando el reloj simulado entró en los últimos minutos, los sensores detectaron una acumulación peligrosa de hidrógeno en una conexión entre el cohete y la plataforma de lanzamiento. Por seguridad, el sistema detuvo todo.Para entender el problema hay que hablar del hidrógeno. Es el elemento más pequeño que existe. Sus moléculas son tan diminutas que pueden escaparse por rendijas microscópicas, incluso en sistemas diseñados con enorme cuidado. Además, es muy inflamable. Por eso, cualquier fuga activa protocolos automáticos de seguridad.Este mismo tipo de fuga ocurrió durante Artemis I, la misión sin tripulación lanzada en 2022. En aquel momento, el cohete tuvo que regresar varias veces al edificio de ensamblaje para reparaciones, lo que retrasó el vuelo durante meses.Ahora, con Artemis II, la situación es parecida, pero no idéntica. Cada cohete SLS es prácticamente único. No se fabrican en serie. Además, este cohete fue trasladado desde el edificio de ensamblaje hasta la plataforma recorriendo unos seis kilómetros a menos de dos kilómetros por hora. Durante ese trayecto, las vibraciones pueden afectar sellos y alineaciones. Este es el primer contacto real de este vehículo con combustibles criogénicos, y eso revela comportamientos que no siempre aparecen en pruebas de laboratorio.A diferencia de lo ocurrido en Artemis I, los ingenieros creen que esta vez las reparaciones se pueden hacer directamente en la plataforma de lanzamiento. Eso evita un retroceso mayor en el calendario. El plan ahora es desmontar el sello afectado, analizarlo pieza por pieza y repetir el ensayo completo.Mientras tanto, la tripulación —Reid Wiseman, Victor Glover, Christina Koch y el astronauta canadiense Jeremy Hansen— ha salido de la cuarentena médica y continúa entrenando. Ellos volarán dentro de la nave Orion, diseñada para proteger a personas en el espacio profundo durante un viaje de diez días alrededor de la Luna.Esta misión no va a aterrizar. Su función es comprobar que los sistemas de vida, navegación y comunicación funcionan lejos de la Tierra. Todo esto es un paso necesario antes de intentar regresar a la superficie lunar con Artemis III.Estos retrasos también ayudan a entender cómo funciona hoy la exploración espacial. En los años del programa Apolo, los lanzamientos eran frecuentes. Hoy, cada vuelo del SLS ocurre con años de diferencia. Eso significa que cada prueba es casi un reencuentro con sistemas complejos que llevan tiempo sin operar juntos.Las pruebas están diseñadas para fallar en tierra y no en el espacio. Detectar una fuga ahora permite corregirla antes de subir personas al cohete. Desde la perspectiva de la NASA, aplazar un lanzamiento es una decisión responsable.Artemis no es una carrera de velocidad. Es un programa pensado para décadas, con socios internacionales y la idea de una presencia humana sostenida alrededor y sobre la Luna. Cada ensayo, incluso los que terminan en retrasos, aporta información real que no se puede obtener de otra forma.Artemis II se retrasa por fugas de hidrógeno detectadas en una prueba clave. El problema es conocido, complejo y manejable. La misión sigue adelante con más datos y más cautela.Te invitamos a reflexionar sobre estos pasos previos y a seguir Flash Diario en Spotify para entender cómo avanza el regreso humano a la Luna.Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 

    Claim FLASH DIARIO de El Siglo 21 es Hoy

    In order to claim this podcast we'll send an email to with a verification link. Simply click the link and you will be able to edit tags, request a refresh, and other features to take control of your podcast page!

    Claim Cancel