Avsnitt
-
Volvo tendrá primero Gemini en sus carros con Android 15: comandos naturales, traducciones, rutas, mensajes y recetas mientras manejas
Por Félix Riaño @LocutorCo
Volvo será la primera marca en tener Gemini dentro del carro, con Android 15 listo para manejar tu día con comandos de voz naturales.
Volvo y Google están trabajando juntos para que los autos de la marca sueca reciban primero las nuevas funciones de Android Automotive. Durante el evento Google I/O 2025, presentaron un Volvo EX90 eléctrico funcionando con Android 15, mucho antes de que otras marcas lo incorporen. Además, confirmaron que los conductores de Volvo serán los primeros en probar Gemini, el nuevo asistente con inteligencia artificial. Esta colaboración convierte a Volvo en una plataforma de referencia para desarrollar y probar las nuevas funciones del sistema operativo, acelerando su llegada al resto del mundo. ¿Te imaginas hablar con tu carro como si fuera una persona?
Pero, ¿qué pasa con tu privacidad cuando el auto empieza a leer tus mensajes?
Volvo fue uno de los primeros fabricantes en adoptar Android Automotive, un sistema operativo creado por Google que controla directamente la pantalla del tablero, el sistema de navegación, el audio y hasta el aire acondicionado del carro, sin necesidad de conectar el celular. En esta nueva fase del acuerdo, Google usará los vehículos Volvo como su plataforma de pruebas. Esto quiere decir que los ingenieros de Google conducirán estos autos con las nuevas versiones de Android y Gemini para ver cómo se comportan en la vida real. Así podrán ajustar todo antes de liberar las actualizaciones al resto de marcas. El Volvo EX90 que mostraron ya funciona con Android 15, mientras que otros fabricantes aún están usando Android 13.
Este adelanto también plantea preguntas importantes. Según el jefe de ingeniería de software de Volvo, Alwin Bakkenes, muchas funciones que ya están en tu teléfono todavía no han llegado a los carros, porque la industria suele ir dos versiones de Android por detrás. Pero ahora, Volvo se adelantará por lo menos dos años. El riesgo está en la cantidad de información que el vehículo tendrá que procesar: Gemini va a acceder a tus correos, tus mensajes, tus contactos y tus búsquedas para darte respuestas útiles mientras manejas. Y eso implica enviar muchos datos a los servidores de Google. Además, si otras marcas no logran ponerse al día con estas innovaciones, podríamos tener una industria automotriz con experiencias muy diferentes según la marca que tengas.
La idea es que, con Gemini, puedas decirle a tu carro frases como: “Busca en mis mensajes la dirección de la oficina y llévame por la ruta más rápida, sin peajes”, y que el carro lo haga, sin que tengas que tocar la pantalla ni mirar el celular. Gemini también podrá traducir tus mensajes, leer tus correos, crear listas de compras o buscar recetas mientras vas en camino al supermercado. Según Google, esta integración comenzará a llegar a los autos Volvo con Android Automotive más adelante este mismo año. Y lo mejor: todo funcionará con lenguaje natural. No hará falta decir comandos rígidos ni repetir frases como si hablaras con un robot. Solo tienes que hablar como lo harías con una persona.
Gemini también va a llegar a Android Auto, que es el sistema que refleja el celular en la pantalla del carro, aunque primero se estrenará en los autos que tienen Android Automotive de fábrica. Y no solo va a estar en los carros. También llegará a relojes inteligentes con Wear OS, televisores con Google TV y los nuevos visores de realidad extendida que Google está desarrollando junto con Samsung. En todos estos dispositivos, Gemini podrá ayudarte a buscar rutas, leer mensajes, responder con traducciones y hasta darte un resumen del libro que no alcanzaste a terminar antes de tu reunión. Según Google, su idea es que Gemini se convierta en un asistente que puedas usar en cualquier dispositivo Android, en cualquier momento del día.
Volvo y Google se han unido para que tu carro entienda tu voz, te ayude a organizar tu día y reciba funciones antes que nadie. Android 15 y Gemini llegarán primero a los modelos Volvo. ¿Te emociona que tu próximo carro te entienda cuando le hablas? Cuéntamelo y sigue el pódcast Flash Diario en Spotify para enterarte de más avances como este.
📚 Bibliografía9to5Google – 21 mayo 2025Reuters – 21 mayo 2025The Verge – 21 mayo 2025Google Blog – 13 mayo 2025También puedes seguirme en Instagram y escuchar Flash Diario en YouTube Music.
Y aquí está el enlace directo para seguirnos en Spotify:
Flash Diario en Spotify¿Deseas que también te cree la imagen de portada para este episodio?
Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. -
Google estrena AI Mode y reinventa las búsquedas en internet, presenta gafas inteligentes y agentes que compran solos:
Por Félix Riaño @LocutorCo
Buscar en la web va a cambiar más de lo que imaginamos. AI Mode ya aparece en Estados Unidos como una pestaña dentro del cuadro de Google y pronto va a llegar a más países. La función conversa como una experta, divide preguntas en partes pequeñas y responde en voz clara. Google también presentó unas nuevas gafas inteligentes desarrolladas junto a Warby Parker y Gentle Monster, que traducen en vivo, guían en la calle y hasta ayudan a hacer compras sin usar las manos. Todo funciona con Gemini 2.5, la inteligencia que ya procesa quinientos billones de instrucciones por mes. El reto ahora es entender si esto nos va a facilitar la vida o si, por el contrario, nos deja con menos control. ¿Cómo nos va a afectar a quienes hablamos español y usamos Google todos los días para trabajar, estudiar o simplemente encontrar el mejor lugar donde comer?
Menos clics en las páginas web pueden afectar miles de empleos.
Imagina que escribes en Google: “restaurantes abiertos cerca de mí con buena comida y parqueadero fácil”. Con AI Mode, no ves la lista tradicional de enlaces, sino una conversación. La IA te pregunta si prefieres algo rápido o para sentarte a comer tranquilo, y si quieres comida colombiana, mexicana o italiana. Toma en cuenta tus búsquedas anteriores, los lugares donde has estado con Google Maps y, si diste permiso, hasta tus reservas pasadas en Gmail. Luego arma una respuesta con dos o tres opciones: muestra fotos del lugar, tiempo estimado para llegar, si hay mesas disponibles, precios en tu moneda y comentarios recientes. Todo eso sin salir de la página de resultados. Liz Reid, la jefa de búsqueda de Google, dice que AI Overviews, el sistema que muestra estos resúmenes automáticos, ya se usa en más de cuarenta idiomas y en más de doscientos países. Son más de mil quinientos millones de personas cada mes.
Pero tanta eficiencia trae consecuencias. Editores de medios en Bogotá, Lima o Buenos Aires temen que el lector ya no llegue a su página. Si la IA responde todo en el primer pantallazo, ¿quién va a leer el artículo completo? Y si nadie entra, nadie ve la publicidad. Eso pone en riesgo los ingresos de medios digitales pequeños y también los empleos de periodistas. Lo mismo pasa con pequeños negocios. Si no tienen su menú bien organizado en línea o no aparecen con datos claros, es probable que la IA ni siquiera los muestre. Además, AI Mode pronto va a usar, si el usuario lo permite, datos personales como correos en Gmail o eventos en el calendario. Con eso puede sugerir restaurantes antes de una reunión o mostrar rutas al aeropuerto según tu vuelo. Todo suena útil, pero los defensores de la privacidad ya están preocupados: ¿dónde queda el límite? ¿Quién decide qué datos se usan y cuándo?
Google dice que quiere mantener el equilibrio. AI Mode incluye controles de privacidad para pausar personalización, borrar historial y revisar qué información se está usando. Además, muestra enlaces directos a las fuentes, para que el usuario pueda leer más si quiere. También presentó Deep Search, una función que lanza cientos de búsquedas internas para armar informes completos. Ideal para estudiantes o periodistas que necesitan contexto rápido. Las nuevas gafas Android XR también hacen parte de esta transformación. Son cómodas, modernas y capaces de traducir en tiempo real, tomar fotos y mostrar direcciones sin usar las manos. Sergey Brin, cofundador de Google, confesó que cometió muchos errores con las primeras Google Glass, pero esta vez la apuesta va en serio. Google va a invertir ciento cincuenta millones de dólares en Warby Parker para lanzar modelos con y sin fórmula óptica a partir de 2026. Y la idea no es competir con celulares, sino complementarlos. Las gafas funcionan junto al teléfono y permiten interactuar con la IA en cualquier momento.
Gemini ya tiene más de cuatrocientos millones de usuarios activos. Google dice que con AI Mode y las nuevas gafas, la búsqueda va a pasar de ser un acto puntual a un acompañamiento constante. Por ejemplo, con solo apuntar la cámara del celular, puedes preguntar si una batería es compatible con tu dispositivo o qué tipo de tornillo necesitas. Gemini también puede comprar entradas para eventos, hacer reservaciones en restaurantes o monitorear precios hasta que bajen. Todo esto es opcional, pero ya se está probando con socios como Ticketmaster, Resy y Google Pay. En América Latina, empresas pequeñas pueden prepararse optimizando su presencia en línea con datos claros: ubicación, horario, precios y fotos de buena calidad. Mientras tanto, puedes explorar estas funciones descargando la app de Google y activando la opción de AI Mode, si estás en Estados Unidos. Para conocer más sobre el pasado, el presente y el futuro de las gafas inteligentes, escucha el episodio especial de El Siglo 21 es Hoy sobre las Gafas Google.
AI Mode convierte la búsqueda en conversación, y Google ahora quiere estar presente incluso fuera del celular. ¿Te ayuda o te preocupa? Comparte tu opinión y escucha este episodio de Flash Diario y el de Gafas Google en El Siglo 21 es Hoy. Síguelo en Spotify aquí: Flash Diario en Spotify
ciona o te preocupa?Separador
📚 BibliografíaBBC News The Washington Post CNN Business The New York Times Search Engine Journal TechCrunch – Warby Parker CNBC – Warby Parker TechCrunch – Sergey Brin Blog Google – Android XR Redes sociales:
YouTube Music | Instagram | LinkedIn Newsletter¿Te gustaría que prepare también una imagen para la portada de este episodio con un diseño sugerente?
Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. -
Saknas det avsnitt?
-
Edit y WSL libresMicrosoft abre Edit y anuncia WSL abierto, impulsando desarrollo Linux y Windows con código libre totalmente.
Edit y WSL libres
Por Félix Riaño @LocutorCo
Microsoft anunció que va a publicar el código fuente de dos herramientas clave para desarrolladores: el nuevo editor de texto llamado Edit y el subsistema Windows Subsystem for Linux, conocido como WSL. El código fuente de un programa es como su receta secreta. Al hacerla pública, cualquiera puede ver cómo funciona, modificarla y mejorarla. Edit es un programa de texto simple y ligero que funcionará directamente en la línea de comandos de Windows, como un bloc de notas, pero sin necesidad de abrir ventanas adicionales. WSL es una herramienta que permite usar programas de Linux dentro de Windows, combinando dos sistemas que antes eran rivales. ¿Será esta movida el inicio de una nueva relación entre Windows y el software libre?
Pero abrir código despierta dudas futuras sobre seguridad y soporte.
Edit nació porque las versiones de 64 bits de Windows no tenían un editor de texto sencillo en la línea de comandos. Un editor de texto es como una hoja en blanco donde puedes escribir y modificar texto, pero Edit está diseñado para funcionar directamente en la terminal, la pantalla negra donde se escriben comandos. Los usuarios podrán usarlo para escribir código, notas o cualquier texto sin necesidad de abrir otras aplicaciones. Y, al ser de código abierto, cualquiera puede ver cómo funciona, copiarlo, cambiarlo y mejorarlo. Esta libertad permite que los desarrolladores añadan nuevas funciones y corrijan errores más rápido.
Sin embargo, hay dudas sobre el compromiso de Microsoft con estos proyectos. Aunque Edit es ligero y promete ser útil, algunos temen que Microsoft lo abandone, como ha hecho con otros proyectos en el pasado. En cuanto a WSL, su apertura también despierta preguntas sobre seguridad. Cuando un programa muestra su código al público, cualquier persona puede ver cómo funciona, pero también puede detectar errores o vulnerabilidades. Esto podría hacer que WSL sea más seguro si la comunidad corrige esos errores, o más riesgoso si los atacantes encuentran formas de aprovecharse de ellos.
Microsoft asegura que Edit llegará integrado en futuras versiones de Windows y que su desarrollo será abierto y colaborativo, lo que significa que cualquier persona podrá aportar mejoras a su diseño y funcionalidad. En cuanto a WSL, su apertura permitirá que los desarrolladores añadan funciones y corrijan errores directamente. Esto podría hacer que Windows se vuelva una opción aún más popular entre los programadores, ya que les permite usar herramientas de Linux sin abandonar su sistema operativo de siempre. Además, WSL seguirá ofreciendo compatibilidad con Ubuntu, Fedora y otras distribuciones de Linux.
Edit es extremadamente ligero, con menos de 250 KB de tamaño. Esto es como una pequeña carta digital. WSL, por otro lado, lleva existiendo desde 2016 y ha permitido a millones de usuarios de Windows usar programas de Linux sin instalar otro sistema operativo completo. En lugar de depender de máquinas virtuales que consumen mucha memoria, WSL permite usar Linux directamente dentro de Windows de manera eficiente. Ahora que su código es abierto, cualquier persona puede revisar cómo funciona, hacer mejoras y adaptarlo a sus necesidades.
Microsoft liberó Edit y casi todo WSL, abriendo la puerta a mejoras hechas por la comunidad. Explora los repositorios, prueba el nuevo editor y cuéntame qué función agregarías. Escucha más tecnología en el pódcast Flash Diario y compártelo.
Microsoft libera editor Edit y WSL; Windows y Linux se unen con código abierto. Desarrollo más fácil, ligero y colaborativo.
📚 BibliografíaPhoronix The Verge Ars Technica Blog de Windows Developer
Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. -
Acer FreeSense Ring, un anillo inteligente que presentó Acer en Computex Taipei 2025. Mide ritmo cardíaco, variabilidad del pulso, saturación de oxígeno y fases de sueño. Fabricado en titanio ultraligero, sin suscripciones.
Por Félix Riaño @LocutorCo
Acer FreeSense Ring monitoriza el pulso, oxígeno y sueño sin suscripción con IA en anillo de titanio ultraligero.
Computex es la feria tecnológica más grande de Asia, que se celebra cada año en Taipéi. En su edición 2025, Acer presentó el FreeSense Ring, un anillo inteligente de titanio que pesa entre dos y tres gramos. Usa sensores ópticos con luces verdes y rojas para medir el ritmo cardíaco, la variabilidad del pulso, los niveles de oxígeno en sangre y la calidad del sueño. La información se transmite por Bluetooth de baja energía a una aplicación móvil que usa inteligencia artificial para generar gráficos y recomendaciones de actividad y descanso. Cuenta con certificación IP68, lo que permite usarlo en ducha o natación recreativa, y estará disponible en tallas del siete al trece y en acabados negro brillante y oro rosa mate.
Sin tarifas mensuales, pero con fecha de lanzamiento y precio pendiente.
Imagina llevar un aro de titanio en tu dedo que pesa menos que una moneda y no nota al tacto. Ese aro es el FreeSense Ring de Acer. Dentro, luces verdes y rojas realizan mediciones ópticas de tu pulso y del flujo sanguíneo. El anillo captura datos sobre tu ritmo cardíaco minuto a minuto, calcula la variabilidad del pulso para evaluar recuperación y bienestar, y mide la saturación de oxígeno en sangre. Durante la noche, analiza las fases de sueño ligero, profundo y REM. Toda la información se envía por Bluetooth de bajo consumo a la app de Acer, donde la inteligencia artificial traduce esos datos en gráficos claros y sugerencias simples para normalizar tu rutina de sueño y actividad diaria, sin cargos ni suscripciones adicionales.
El mercado de dispositivos para monitoreo personal de salud está cada vez más competido. Marcas consolidadas como Oura y Samsung dominan la categoría de anillos inteligentes. El FreeSense Ring de Acer llega como una alternativa sin tarifa mensual, pero enfrenta desafíos. Primero, no se ha anunciado un precio definitivo ni una fecha exacta de lanzamiento, lo que genera incertidumbre entre compradores interesados. Segundo, las tallas del anillo abarcan del siete al trece, pero elegir la medida adecuada en línea puede complicar la experiencia de compra. Tercero, la duración de la batería se sitúa entre cinco y siete días, una cifra sólida pero inferior a algunos competidores que ofrecen hasta diez días. Finalmente, aunque la certificación IP68 garantiza resistencia al agua y al polvo, los usuarios profesionales de deportes extremos pueden requerir pruebas de durabilidad adicionales. Estas incógnitas pueden impactar en la adopción temprana del FreeSense Ring, pese a sus ventajas tecnológicas.
Acer se posiciona con el FreeSense Ring como un jugador novedoso en el campo de los wearables de salud. Su propuesta de valor radica en un diseño ultraligero de aleación de titanio y en la ausencia de una suscripción mensual: todo el análisis de datos y las recomendaciones se despliegan en la aplicación móvil sin coste adicional. La certificación IP68 permite usarlo en la ducha o nadar en la piscina, sin temor a dañarlo. La disponibilidad en tallas del siete al trece y en dos acabados estéticos —negro brillante y oro rosa mate— amplia su atractivo para usuarios de diferentes edades y estilos. La aplicación acompaña cada métrica con gráficos intuitivos y sugerencias de descanso o actividad, apoyadas por inteligencia artificial desarrollada por Acer. Aunque queda pendiente conocer el precio y la fecha de venta, la presentación en Computex sitúa al FreeSense Ring en el radar de consumidores interesados en tecnología de punta para el cuidado personal. Si Acer cumple con un lanzamiento cercano a los 300 dólares, este anillo tiene potencial para convertirse en una opción popular entre quienes buscan un monitoreo discreto y completo de su salud diaria.
El FreeSense Ring forma parte de la división Acer Gear, responsable de productos innovadores más allá de computadoras tradicionales. En Computex 2025, Acer Gear también reveló los AI TransBuds, auriculares inalámbricos capaces de realizar traducción de voz en tiempo real en hasta quince idiomas. Estos auriculares y el anillo comparten un estuche de carga magnética con puerto USB-C, que completa una carga en aproximadamente una hora. El anillo, certificado con IP68, soporta polvo y sumersiones de hasta cincuenta metros, apto para natación recreativa. Está construido en titanio grado 5, material empleado en implantes médicos por su excelente relación resistencia-peso de 280 MPa por gramo. Con un peso de solo dos a tres gramos, se siente casi imperceptible. La app de Acer, compatible con Android 11 y versiones superiores, e iOS 15 y posteriores, procesa los datos sin enviar información a servidores externos, garantizando privacidad.
FreeSense Ring ofrece monitoreo integral de salud sin suscripciones ni costes ocultos. Con sensores avanzados, diseño ultraligero de titanio e integración Bluetooth en una app con IA, promete transformar tu rutina de descanso y actividad. Pese a precio y lanzamiento pendientes, su debut en Computex Taipei 2025 lo posiciona como una opción atractiva en wearables de salud.
🎧 Escucha Flash Diario en Spotify: https://open.spotify.com/show/3hZpVtjGWqgqATmVom54uK?si=Ee59DQ_ITOSFnMIISicKXw
Bibliografía:
– TechRadar
– Forbes
– PCMag
– Tom’s Guide
– Droid-Life
– VentureBeat
Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. -
Sony ha lanzado sus nuevos audífonos WH-1000XM6, prometiendo mejor calidad de sonido y cancelación de ruido avanzada. Pero, ¿podrían estos audífonos estar dañando nuestra salud auditiva? ¿Qué efectos pueden tener en el cerebro?
Por Félix Riaño @LocutorCo
Sony ha presentado sus nuevos audífonos WH-1000XM6, una evolución en su popular serie de auriculares con cancelación de ruido. Estos dispositivos, que cuestan 450 dólares, prometen una experiencia de sonido inmersiva gracias a su nuevo procesador QN3, que es siete veces más rápido que su versión anterior.
Con 12 micrófonos para una cancelación de ruido precisa y tecnología de optimización automática, los WH-1000XM6 buscan destacarse en el mercado de audífonos premium. Pero, aunque la tecnología promete una experiencia auditiva envolvente, hay un problema que muchos pasan por alto: el uso prolongado de audífonos con cancelación de ruido ha sido vinculado a problemas de salud auditiva, como el Trastorno de Procesamiento Auditivo (APD).
Audiologistas en el Reino Unido advierten que estos dispositivos podrían estar afectando la capacidad del cerebro para procesar sonidos. ¿Estamos sacrificando nuestra salud por una mejor experiencia de sonido?
Pero, ¿cómo funciona realmente la cancelación de ruido y a qué precio?
Los Sony WH-1000XM6 son la nueva apuesta de la marca para dominar el mercado de audífonos con cancelación de ruido. Equipados con un procesador QN3 siete veces más rápido que el QN1 del modelo anterior, estos audífonos utilizan 12 micrófonos para detectar y eliminar sonidos no deseados. Esto se logra mediante un proceso llamado cancelación de ruido activa, una tecnología que no es exclusiva de Sony, sino que también utilizan marcas como Bose, Apple y Sonos.La cancelación de ruido funciona gracias a ondas sonoras inversas.
Imagina que el sonido es una onda en el agua. Si tienes una ola hacia arriba y creas otra igual pero hacia abajo, ambas se anulan. Los audífonos detectan el ruido externo con sus micrófonos y generan una onda opuesta que lo cancela. Esto permite a los usuarios escuchar música o llamadas en paz, incluso en ambientes ruidosos como aviones, oficinas o calles concurridas.
Pero la competencia no se queda atrás. Los Sonos Ace, que inicialmente costaban 499 dólares, ahora están disponibles por 349 dólares en Amazon. Estos audífonos también cuentan con cancelación de ruido avanzada, un diseño cómodo y una función llamada TV Audio Swap, que permite transferir el sonido del televisor directamente a los audífonos. Esto los convierte en una opción atractiva para quienes buscan disfrutar de películas y series sin molestar a otros.
A pesar de toda esta tecnología, el uso prolongado de audífonos con cancelación de ruido puede tener consecuencias para la salud auditiva. Según el NHS del Reino Unido, cada vez más jóvenes son diagnosticados con Trastorno de Procesamiento Auditivo, también conocido como APD. Este problema dificulta que el cerebro interprete correctamente los sonidos, incluso cuando el oído funciona perfectamente.
El problema está en cómo el cerebro se adapta a un entorno artificial. Al usar audífonos con cancelación de ruido durante largos periodos, el cerebro pierde la práctica de filtrar sonidos y priorizar voces. Esto se traduce en dificultades para comprender conversaciones en ambientes ruidosos, reconocer voces familiares o identificar el origen de los sonidos.
La doctora Claire Benton, de la Academia Británica de Audiología, advierte que el uso prolongado de estos dispositivos crea una “realidad falsa”, donde el usuario solo escucha lo que quiere, pero no entrena su cerebro para discriminar sonidos. Además, estudios han mostrado que el aislamiento acústico constante puede aumentar la ansiedad en ambientes ruidosos, como conciertos, restaurantes o calles concurridas.
Para reducir los riesgos, los especialistas recomiendan limitar el tiempo de uso de audífonos con cancelación de ruido y utilizar el modo de transparencia, que permite escuchar algunos sonidos del entorno. Esto mantiene el cerebro entrenado para discriminar sonidos importantes. Además, es útil practicar ejercicios auditivos que estimulen la capacidad de escucha activa, como participar en conversaciones en ambientes variados sin audífonos.
Los Sony WH-1000XM6 destacan por su calidad de sonido y tecnología avanzada, pero deben usarse de manera responsable. Si estás buscando audífonos con excelente conectividad y experiencia de sonido para entretenimiento en casa, los Sonos Ace son una opción interesante gracias a su función TV Audio Swap, que permite transferir el audio del televisor a los audífonos. Pero, al igual que con los Sony, es fundamental recordar que la salud auditiva debe ser una prioridad.Para quienes buscan la máxima calidad de sonido, los Bose QuietComfort Ultra y los Apple AirPods Max son otras opciones a considerar, pero también comparten el mismo riesgo si se usan en exceso. La clave es disfrutar de la tecnología sin comprometer tu salud.
Los audífonos Sony WH-1000XM6 tienen una batería que dura 30 horas con cancelación de ruido activa y 40 horas sin ella. Una carga rápida de tres minutos ofrece tres horas de uso, ideal para emergencias. El modelo cuenta con compatibilidad con códecs de alta calidad como LDAC, SBC y AAC, y su diseño plegable permite guardarlos fácilmente. Los Sonos Ace, que ahora cuestan 349 dólares en Amazon, ofrecen una experiencia diferente gracias a su conectividad directa con televisores a través del TV Audio Swap, convirtiéndolos en una opción ideal para entretenimiento en casa.
Los Sony WH-1000XM6 son audífonos avanzados que ofrecen calidad de sonido y cancelación de ruido superior. Pero su uso prolongado podría afectar tu salud auditiva. Los Sonos Ace, ahora más accesibles, destacan por su conectividad con televisores. La clave es disfrutar de estos dispositivos de manera responsable. Si te interesa adquirir los Sonos Ace por 349 dólares, puedes encontrarlos en Amazon usando nuestro enlace de afiliado en la descripción del episodio.Flash Diario en Spotify
📚 Bibliografía
Sony WH-1000XM6 en GSMArenaSony WH-1000XM6 en The VergeSony WH-1000XM6 en CNETSonos Ace en SonosEfectos de los audífonos con cancelación en la salud, BBCEfectos de los audífonos con cancelación, Women’s HealthOpinión médica en Ara.cat
Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. -
Transmutación de plomo en oro: El experimento ALICE en el CERN logró convertir plomo en oro, replicando un sueño alquímico con tecnología moderna
Por Félix Riaño @LocutorCo
En el Gran Colisionador de Hadrones (LHC) del CERN, un experimento llamado ALICE ha logrado convertir plomo en oro, alcanzando lo que durante siglos fue solo un sueño para los alquimistas. Pero este oro no se puede usar para joyería ni para volverse rico. En realidad, estos átomos de oro existen solo por una fracción de segundo antes de desaparecer. El proceso ocurre cuando los núcleos de plomo, acelerados al 99,999993 % de la velocidad de la luz, pasan tan cerca unos de otros que sus campos electromagnéticos generan pulsos de fotones capaces de arrancar protones de los núcleos. Así, tres protones menos convierten al plomo en oro. ¿Cómo lograron algo que parecía imposible? ¿Y qué impacto tiene este descubrimiento en la ciencia moderna?
No es magia, es ciencia a la velocidad de la luz.
Desde la antigüedad, los alquimistas soñaban con transformar plomo en oro, un metal precioso codiciado por su color brillante y su rareza. Pero no sabían que el plomo y el oro son elementos distintos. El plomo tiene 82 protones en su núcleo, mientras que el oro tiene 79. Esta diferencia impide cualquier transformación química. Pero, ¿y si la respuesta no estaba en la química, sino en la física?
La física nuclear del siglo XX revolucionó la comprensión de la materia. Los científicos descubrieron que, bajo ciertas condiciones, los átomos podían transformarse. Pero no con reacciones químicas, sino a través de procesos nucleares que afectan el núcleo mismo de los átomos.
El Gran Colisionador de Hadrones (LHC) de CERN es el acelerador de partículas más poderoso del mundo. Tiene un túnel de 27 kilómetros donde núcleos de plomo viajan a velocidades cercanas a la luz. Cuando estos núcleos pasan cerca unos de otros, sus campos electromagnéticos generan pulsos de fotones que pueden arrancar protones de los núcleos. Para convertir plomo en oro, un núcleo de plomo debe perder tres protones.
Esto sucede en un proceso llamado disociación electromagnética. Los núcleos de plomo emiten fotones que golpean otros núcleos, provocando la pérdida de protones. Pero este oro es extremadamente efímero. Solo existe por una fracción de segundo antes de desintegrarse en partículas subatómicas.
El equipo de ALICE utilizó calorímetros de grado cero (ZDC) para detectar y medir estos eventos. Identificaron que durante el período conocido como Run 2 (2015-2018), se produjeron 86 mil millones de núcleos de oro. En términos de masa, esto representa solo 29 picogramos, una cantidad tan pequeña que no se puede ver ni usar.
En Run 3, las mejoras en la tecnología permitieron casi duplicar esta cantidad. Pero este oro sigue siendo fugaz. Los átomos de oro se desintegran rápidamente, chocando contra el tubo del LHC y fragmentándose en protones y neutrones. La alquimia moderna es impresionante, pero no produce riquezas.
El LHC también produjo otros elementos como talio y mercurio, dependiendo de cuántos protones perdieron los núcleos de plomo. Estos resultados permiten a los científicos comprender mejor la física de partículas y mejorar la estabilidad de los haces de partículas en el LHC.
La disociación electromagnética es clave para entender cómo se comportan los átomos bajo campos magnéticos extremos, algo que ayuda en el LHC, también es vital para el diseño de futuros colisionadores de partículas. Además, el estudio ayuda a modelar mejor las pérdidas de partículas en los haces, un problema constante para la eficiencia de estos aceleradores.
El experimento ALICE en el LHC logró transformar plomo en oro por una fracción de segundo. Es un sueño antiguo hecho realidad gracias a la ciencia moderna. Si te interesa la ciencia y la tecnología, escucha el pódcast Flash Diario en Spotify.
Bibliografía: CERNTechSpotSciTechDailySpace.comFuturismNature
Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. -
Nuevo teléfono Samsung Galaxy S25 Edge: Un flagship ultradelgado
Por Félix Riaño @LocutorCo
Samsung Galaxy S25 Edge: El teléfono ultradelgado con pantalla AMOLED y Gorilla Glass Ceramic 2 que desafía la tecnología móvil.El Samsung Galaxy S25 Edge es el modelo más delgado de la familia Galaxy S25, con apenas 5,8 milímetros de grosor, similar al ancho de un lápiz. A pesar de su diseño ultrafino, ofrece tecnología de alta gama. Su pantalla AMOLED de 6,7 pulgadas utiliza tecnología orgánica que ilumina cada píxel de manera independiente, logrando colores vibrantes y negros profundos. Esto permite una experiencia visual impactante, ideal para ver videos y fotos. Además, su cámara principal de 200 megapíxeles captura imágenes en alta resolución, revelando detalles minuciosos. El marco del S25 Edge está hecho de titanio, un material liviano pero muy resistente, mientras que su pantalla está protegida por Gorilla Glass Ceramic 2, un vidrio cerámico avanzado desarrollado en colaboración con Corning. Este material combina transparencia y resistencia, gracias a cristales microscópicos que absorben impactos y previenen grietas. ¿Puede un teléfono tan delgado competir en rendimiento y resistencia con otros modelos premium como el iPhone 16? Vamos a descubrirlo.
El Samsung Galaxy S25 Edge es un dispositivo que se destaca por su diseño ultradelgado de solo 5,8 milímetros, mucho más delgado que otros teléfonos como el iPhone 16 (7,8 mm) y el Motorola Edge 30 (6,79 mm). Esta delgadez se logra sin sacrificar calidad gracias a su chasis de titanio, un material ligero y resistente utilizado en la industria aeroespacial. Su pantalla AMOLED de 6,7 pulgadas ofrece colores vibrantes y negros profundos, mientras que su cámara de 200 megapíxeles captura detalles impresionantes, superando la resolución de otros teléfonos de su categoría. La pantalla está protegida por Gorilla Glass Ceramic 2, un vidrio cerámico avanzado desarrollado junto a Corning, que incluye microcristales para mejorar la resistencia a impactos. A pesar de su diseño ultradelgado, el S25 Edge mantiene un rendimiento de alta gama con su procesador Snapdragon 8 Elite, Wi-Fi 7, Bluetooth 5.4 y funciones de inteligencia artificial para mejorar imágenes y optimizar aplicaciones. Pero su batería de 3.900 mAh y la ausencia de un lente teleobjetivo plantean una pregunta clave: ¿es este diseño más delgado una ventaja o un sacrificio?
Elegancia y delgadez a cambio de batería y cámara.
El Galaxy S25 Edge es una hazaña de la ingeniería moderna. Su pantalla AMOLED de 6,7 pulgadas utiliza tecnología orgánica de emisión de luz, donde cada píxel se ilumina de forma independiente, logrando negros profundos y colores vibrantes. Este diseño permite un consumo energético optimizado. En el apartado fotográfico, el sensor de 200 megapíxeles proporciona una capacidad sin precedentes para capturar imágenes detalladas, ideal para fotografía profesional. Su procesador Snapdragon 8 Elite garantiza una eficiencia computacional avanzada, soportando tareas de inteligencia artificial como el reconocimiento de imágenes, la traducción en tiempo real y la optimización de aplicaciones.
Sin embargo, la búsqueda de la delgadez ha impuesto compromisos técnicos. La batería de 3,900 mAh del Galaxy S25 Edge es notablemente más pequeña que la del Galaxy S25+ (4,900 mAh) y el Galaxy S25 Ultra (5,000 mAh), lo que reduce su autonomía. Esto significa que quienes usan intensamente su teléfono para juegos, videollamadas o navegación web podrían necesitar recargarlo más de una vez al día. Además, a diferencia del S25 Ultra, que cuenta con un sistema de triple cámara incluyendo un lente teleobjetivo, el S25 Edge carece de esta opción, limitando la capacidad de hacer zoom óptico en fotografías. En lugar de un zoom óptico de alta calidad, solo ofrece zoom digital, lo que reduce la calidad de las imágenes al acercar.
Para mitigar estos desafíos, Samsung ha colaborado con Corning para desarrollar el Gorilla Glass Ceramic 2. Este material combina la transparencia del vidrio con la resistencia de la cerámica, logrando una protección superior sin comprometer la claridad de la pantalla. En conectividad, el Galaxy S25 Edge es compatible con Wi-Fi 7 y Bluetooth 5.4, garantizando velocidades de transferencia rápidas y una conexión estable. Su inteligencia artificial, potenciada por Galaxy AI, permite optimizar imágenes, traducir textos y resumir contenido, transformando al dispositivo en una herramienta versátil para productividad y entretenimiento.
El Galaxy S25 Edge está disponible en tres colores: negro, plateado y azul. Su precio inicial es de aproximadamente 1.270 euros o 1.400 dólares estadounidenses, con opciones de almacenamiento de 256 GB y 512 GB. Los usuarios que lo preordenen obtendrán doble almacenamiento sin costo adicional y una tarjeta de regalo de 50 dólares. Además, Samsung ofrece el programa Galaxy Club, que permite actualizar el dispositivo cada año con descuentos exclusivos.
El Samsung Galaxy S25 Edge combina diseño ultradelgado y tecnología avanzada. Ofrece una experiencia visual superior, una cámara de alta resolución y conectividad moderna. Sin embargo, su batería limitada y la falta de un lente teleobjetivo son puntos a considerar. Es un dispositivo ideal para quienes priorizan diseño y ligereza, pero quienes buscan mayor autonomía y versatilidad fotográfica podrían considerar otras opciones.
🔗 BibliografíaGBNewsIGNMashableStuff.tvSamsung NewsroomSamsung EspañaYouTube
Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. -
Google y Honor lanzan un generador de videos con IA en los teléfonos Honor 400 y 400 Pro. ¿Qué tan útil es esta herramienta?
Por Félix Riaño @LocutorCo
Google y Honor han unido fuerzas para lanzar una nueva función de generación de videos con inteligencia artificial. Esta herramienta, impulsada por el modelo Veo 2 de Google, permite a los usuarios de los nuevos teléfonos Honor 400 y 400 Pro convertir imágenes estáticas en videos cortos de hasta cinco segundos. Esta tecnología está integrada directamente en la aplicación de galería de los teléfonos, lo que facilita su uso sin necesidad de configuraciones complicadas. Los usuarios solo deben seleccionar una imagen y el modelo Veo 2 genera el video automáticamente. Según Google, este modelo puede interpretar imágenes simples y complejas, pero ha demostrado tener mejores resultados con fotos claras y bien definidas. ¿Cómo funciona realmente y qué tan precisos son estos videos??
Pero, ¿cuál es el límite y qué tan realistas son?
El fabricante de teléfonos Honor se ha adelantado al resto al ofrecer una herramienta de inteligencia artificial desarrollada en estrecha colaboración con Google. Esta alianza comenzó cuando Honor buscó integrar capacidades avanzadas de inteligencia artificial en sus dispositivos, y Google vio una oportunidad para probar su modelo Veo 2 en un mercado amplio. Google proporciona el modelo Veo 2, una tecnología avanzada de generación de video a partir de imágenes, mientras que Honor lo integra directamente en su aplicación de galería, optimizando su rendimiento para los modelos Honor 400 y 400 Pro. Esto permite a los usuarios convertir imágenes en videos cortos de cinco segundos sin necesidad de configuraciones complejas. La colaboración destaca por permitir que Google obtenga retroalimentación del uso del modelo y Honor ofrezca una función exclusiva. Esto deja fuera a otros fabricantes, como Samsung y Pixel, que usualmente son los primeros en recibir las novedades de Google. ¿Qué implicaciones tiene esto para el mercado de teléfonos inteligentes?
Pero la tecnología no es perfecta. Los primeros en probar esta función fueron periodistas de tecnología de medios como The Verge y Lifehacker, quienes recibieron acceso anticipado a los teléfonos Honor 400 y 400 Pro. Los reporteros realizaron pruebas prácticas en diversos escenarios, desde fotos de personas y mascotas hasta imágenes más complejas, como autos antiguos y bodegones. Mientras que las imágenes claras de personas y animales lograron movimientos fluidos, las imágenes complejas produjeron resultados extraños. En un ejemplo, un auto clásico giró sin mover sus ruedas, y en otro, una mano fantasmal apareció tocando tomates. Estos resultados fueron publicados en artículos que revelaron las limitaciones actuales del modelo Veo 2 de Google.
Los nuevos teléfonos Honor 400 y 400 Pro estarán disponibles a partir del 22 de mayo de 2025. Los usuarios que adquieran estos dispositivos podrán utilizar la función de generación de videos con inteligencia artificial de manera gratuita durante los primeros dos meses, limitada a 10 videos generados por día. Después de este periodo inicial, se espera que la función tenga un costo adicional o esté vinculada a una suscripción de Google Gemini. La función estará disponible inicialmente en China, y se espera su expansión a otros países de Asia antes de llegar a mercados globales. Google y Honor aseguran que los datos de los usuarios no se utilizarán para entrenar los modelos de IA, priorizando la privacidad y el control del usuario sobre su contenido.
Esta nueva función de inteligencia artificial en los teléfonos Honor marca un cambio notable en la estrategia de Google. Tradicionalmente, Google lanza sus innovaciones primero en sus teléfonos Pixel, considerados sus dispositivos insignia, donde puede controlar la experiencia del usuario y recopilar retroalimentación directamente. Sin embargo, en este caso, Google eligió a Honor como socio inicial, lo que ha sorprendido a muchos expertos en tecnología. La razón es estratégica: al asociarse con Honor, Google puede probar su modelo Veo 2 en un mercado masivo sin comprometer la imagen de sus teléfonos Pixel. Honor, por su parte, obtiene una ventaja competitiva al ofrecer una función exclusiva que no está disponible en otros dispositivos Android, incluido el propio Pixel. Esto plantea preguntas para otros fabricantes como Samsung y Xiaomi, que normalmente esperan ser los primeros en recibir innovaciones de Google. Para los usuarios de Pixel, esta decisión podría ser frustrante, ya que están acostumbrados a recibir las últimas funciones de Google antes que otros. A futuro, se espera que la herramienta se expanda a otros dispositivos bajo una suscripción de Google Gemini, lo que podría convertirla en una nueva fuente de ingresos para Google.
Google y Honor lanzan una herramienta de inteligencia artificial que convierte imágenes en videos. ¿Es el futuro del contenido visual? ¿Quieres saber más? Sigue Flash Diario en Spotify.
Flash Diario en Spotify🔍 Bibliografía
The VergeLifehackerForbes
Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. -
SoundCloud cambia sus políticas para permitir el uso de contenido de usuarios en el entrenamiento de inteligencia artificial, generando controversia y preocupación entre artistas
Por Félix Riaño @LocutorCo
SoundCloud, una plataforma mundialmente conocida para compartir música y podcasts, ha actualizado sus términos de uso, permitiendo que el contenido subido por los usuarios se use para entrenar inteligencia artificial. Esto significa que las canciones, mezclas y audios que los artistas y creadores suben al servicio ahora pueden ser utilizados para mejorar y desarrollar tecnologías de IA. Pero este cambio va más allá de SoundCloud: se une a una tendencia global donde plataformas como YouTube, LinkedIn y X (antes Twitter) también han actualizado sus políticas para permitir el uso de contenido de usuarios en IA. La gran diferencia es que SoundCloud permite este uso incluso sin el consentimiento explícito de los artistas. ¿Cómo afecta esto a los creadores? ¿Pueden proteger su contenido en un mundo cada vez más dominado por la inteligencia artificial? ¿Está en riesgo el futuro de la música independiente en plataformas digitales?
Artistas descubren y reaccionan ante las nuevas políticas de SoundCloud.
SoundCloud es una de las plataformas de música y audio más populares del mundo. Fundada en 2007 en Alemania, se convirtió rápidamente en un espacio para que artistas independientes y creadores de contenido compartieran su música y otros audios. Miles de músicos y DJs usaron SoundCloud para lanzar sus carreras, y muchos encontraron seguidores leales gracias a la facilidad para compartir y descubrir música nueva. Pero en 2024, la empresa actualizó sus términos de servicio, permitiendo que el contenido de los usuarios se use para entrenar inteligencia artificial.El cambio fue notado por expertos en ética tecnológica y rápidamente se viralizó en redes sociales. Los artistas comenzaron a preguntar si sus canciones podían ser utilizadas sin su consentimiento para entrenar modelos de inteligencia artificial. Esto provocó una ola de preocupación, especialmente entre músicos independientes, quienes sienten que su trabajo podría ser explotado sin una compensación justa.
El cambio en las políticas de SoundCloud no fue anunciado de manera destacada. Los usuarios descubrieron la modificación por publicaciones de expertos y redes sociales. Los términos ahora indican que el contenido subido puede ser utilizado para “informar, entrenar, desarrollar o servir como entrada para tecnologías de inteligencia artificial o servicios de aprendizaje automático”.Muchos artistas sintieron que sus creaciones estaban siendo utilizadas sin su permiso explícito y comenzaron a eliminar sus canciones de la plataforma. Esto generó una fuerte reacción en redes sociales, donde músicos como el dúo The Flight decidieron borrar su contenido y cerrar sus cuentas. Otros usuarios compartieron guías sobre cómo proteger su contenido y minimizar el riesgo de que sea usado para entrenamiento de IA.
Ante la reacción de los usuarios, SoundCloud aclaró que su política no significa que actualmente esté usando contenido para entrenar modelos de IA. La empresa explicó que los cambios son para permitir el uso de IA dentro de su propia plataforma, mejorando recomendaciones, organizando contenido, detectando fraudes y optimizando la identificación de contenido.SoundCloud aseguró que los acuerdos con sellos discográficos, como Universal Music y Warner Music Group, garantizan que la música de esos artistas no será usada para entrenamiento de IA. Pero muchos creadores independientes siguen preocupados, temiendo que sus canciones sean utilizadas sin su autorización y sin recibir ningún tipo de compensación.
SoundCloud no es la única empresa que ha cambiado sus políticas para permitir el entrenamiento de IA. En 2024, LinkedIn modificó sus términos para permitir que los datos de sus usuarios fueran usados para entrenar IA. X (antes Twitter) hizo lo mismo, y YouTube también comenzó a permitir que terceros entrenen IA usando fragmentos de videos de usuarios.Los críticos argumentan que las plataformas deben ser más transparentes y permitir que los usuarios opten por no participar en estos usos de sus contenidos. Mientras tanto, algunos músicos buscan alternativas en plataformas que ofrezcan mayor control sobre sus derechos.
SoundCloud cambió sus políticas para permitir el uso de contenido de usuarios en el entrenamiento de IA, generando preocupación entre artistas. ¿Debería SoundCloud ofrecer una opción clara para que los usuarios decidan si su contenido puede ser usado en IA?Escucha más análisis como este en el pódcast Flash Diario en Spotify: Flash Diario en Spotify
Bibliografía
TechCrunchFast CompanyPitchfork
Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. -
Transformación de Netflix: Innovación y experiencia optimizada
Por Félix Riaño @LocutorCo
A partir del 19 de mayo, Netflix introducirá una interfaz de usuario renovada en su plataforma de TV, que incluye accesos directos a "Buscar", "Programas", "Películas", "Juegos" y "Mi Netflix". Esta reestructuración busca simplificar la navegación y mejorar las recomendaciones, haciéndolas más precisas y adaptativas. Además, la nueva función de búsqueda con inteligencia artificial en iOS permitirá a los usuarios encontrar contenido utilizando lenguaje natural, optimizando la personalización del servicio.
Netflix apuesta por la inteligencia artificial para revolucionar la forma de descubrir contenido
Netflix, líder mundial del streaming, ha optado por una renovación sustancial de su plataforma, comenzando con una interfaz más intuitiva en televisores. En lugar del menú lateral tradicional, los accesos estarán ubicados en la parte superior, siempre visibles, lo que facilita el acceso inmediato a las opciones principales. Esta decisión refleja una tendencia hacia el diseño centrado en el usuario, permitiendo que la navegación sea más fluida y visualmente atractiva. Además, la plataforma optimiza las recomendaciones, basadas en el comportamiento de visualización y búsqueda de cada usuario.
La competencia en el mercado del streaming es feroz. Netflix se enfrenta a plataformas emergentes como Disney+, HBO Max y Amazon Prime Video, que no solo ofrecen contenido exclusivo, sino que también buscan capturar la atención de los usuarios a través de estrategias de descubrimiento innovadoras. Además, las redes sociales como TikTok han creado nuevos hábitos de consumo de contenido en formato corto, desafiando a las plataformas tradicionales. En este contexto, Netflix necesita diferenciarse para mantener su liderazgo.
Para enfrentar estos desafíos, Netflix no solo rediseña su interfaz, sino que también integra inteligencia artificial en su aplicación móvil para iOS. Esta tecnología permitirá a los usuarios realizar búsquedas utilizando lenguaje natural, como "quiero ver algo emocionante". La IA analizará preferencias de visualización para ofrecer recomendaciones cada vez más precisas. Además, Netflix probará un feed de videos verticales similar a TikTok, permitiendo a los usuarios descubrir contenido a través de clips cortos e interactivos.
Estos cambios fueron presentados en el evento "Product & Tech" de Netflix, donde Eunice Kim, directora de producto, y Elizabeth Stone, directora de tecnología, explicaron la visión de la empresa: una plataforma más ágil, personalizada y conectada con los intereses de sus usuarios. Además, Netflix continuará desarrollando juegos basados en sus series y ofrecerá eventos en vivo. La empresa refuerza su capacidad para combinar tecnología y entretenimiento de manera única.
Netflix ha anunciado una profunda transformación de su plataforma, incluyendo una interfaz de usuario rediseñada para televisores y la implementación de inteligencia artificial generativa en su aplicación móvil para iOS. Estos cambios buscan optimizar la experiencia de navegación y descubrimiento de contenido para millones de usuarios a nivel global. ¿Qué implicaciones tiene esta renovación para el modelo de negocio de Netflix y su relación con los consumidores?
Netflix se transforma con una nueva interfaz de TV y funciones avanzadas de inteligencia artificial. ¿Estos cambios mejoran la experiencia del usuario? ¿Cambiarán la manera en que consumes contenido? Déjanos tu opinión.
Sigue el pódcast Flash Diario en Spotify
Bibliografía:CBC NewsCNNYahoo NewsNetflix
Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. -
Spotify lanza Snooze para bloquear canciones repetidas y ofrece más control a usuarios Premium
Por Félix Riaño @LocutorCo
Spotify tiene 615 millones de oyentes mensuales, de los cuales 236 millones pagan Premium. La plataforma está probando una nueva función llamada «Snooze 30 días». Los usuarios Premium pueden bloquear temporalmente canciones que no quieren escuchar. La función aparece junto a las opciones de «Ocultar» y permite pausar una canción durante 30 días sin eliminarla. Snooze se está probando en Estados Unidos, Canadá y Reino Unido, y pronto llegará a otros países. Spotify reconoce que su algoritmo a veces repite canciones y ofrece Snooze para que los usuarios tengan más control.
Spotify admite que sus recomendaciones pueden volverse repetitivas.
Spotify ofrece Discover Weekly desde 2015. Cada lunes, esta lista sugiere 30 canciones personalizadas usando un algoritmo que analiza 2 billones de listas y el historial de cada usuario. Pero el sistema tiene un problema: si una canción se reproduce hasta el final, Spotify asume que gusta y la repite. En 2024, Chartmetric mostró que 4 de cada 10 oyentes saltan la misma canción al menos 3 veces por semana. Con Snooze, los usuarios pueden bloquear esas canciones sin borrarlas.
El problema de las canciones repetitivas no solo aburre, también afecta a los artistas. Los músicos emergentes pueden ver su trabajo rechazado si aparece fuera de contexto. Además, los grandes sellos dominan las listas de recomendaciones. Deezer y YouTube Music ya ofrecieron soluciones similares. Ahora, Spotify lanza Snooze para dar más control a los usuarios sin afectar su modelo de negocio.
Spotify no solo añade Snooze. También ha mejorado el botón «Ocultar», que ahora sincroniza la decisión en todos los dispositivos. La sección «Ahora Suena» muestra las recomendaciones futuras y permite eliminarlas. También se añadieron accesos directos a Shuffle, Smart Shuffle, Repetir y Temporizador de Sueño.
Spotify paga a los artistas un promedio de 0,0032 USD por reproducción. Esto equivale a menos de un tercio de un centavo. Un artista necesita 312 reproducciones para ganar 1 dólar. En mercados como Colombia y México, el costo del plan familiar de Spotify se puede dividir entre seis personas, reduciendo el costo mensual a menos de 1 dólar por persona. Esto hace que el servicio sea accesible.
Spotify no paga a los creadores de pódcast. Solo paga a las discográficas por las canciones. Los pódcast son gratuitos para todos, incluso para quienes no pagan Premium. Los usuarios Premium escuchan música sin anuncios, pero los pódcast pueden incluir publicidad, ya que los anuncios son responsabilidad del creador del contenido. Algunos pódcast son de pago y se compran por episodio o temporada.
Spotify lanza Snooze para silenciar canciones repetitivas. También mejora las opciones de control en la cola de reproducción. Los pódcast siguen siendo gratuitos para todos. ¿Te interesa probar Snooze? Síguenos en Flash Diario: Flash Diario en Spotify
Spotify prueba Snooze: pausa canciones repetitivas 30 días, controla tu cola y recuerda que los pódcast siguen gratis.
Bibliografía
TechRadar The Verge TechCrunch Spotify Newsroom
Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. -
Nuevas Surface con IA sin conexión, más baratas que el MacBook Air M4, listas antes del fin de Windows 10
Por Félix Riaño @LocutorCo
Microsoft acaba de presentar dos nuevos computadores Surface que pueden ejecutar inteligencia artificial sin conexión a internet. Son más livianos, más delgados y, sobre todo, más baratos que los modelos anteriores. El Surface Laptop de 13 pulgadas cuesta 899 dólares, cien menos que el nuevo MacBook Air con chip M4, que parte desde 999. Por su parte, la Surface Pro tipo tableta cuesta 799 dólares, acercándose al precio base de un iPad Pro, pero ofreciendo una experiencia completa de Windows. ¿Por qué estas nuevas máquinas podrían cambiar la forma en la que usamos nuestros computadores? ¿Y qué significa esto para quienes aún usan Windows 10, que dejará de recibir soporte este mismo año?
Bajan los precios, pero aún hay dudas sobre su utilidad real.
Vamos a comenzar por cómo lucen y funcionan. El nuevo Surface Laptop tiene una pantalla de 13 pulgadas, lo que equivale a 33 centímetros en diagonal. Es más pequeño que el modelo del año pasado, pero lo suficientemente grande para trabajar cómodamente. Usa un chip Snapdragon X Plus de ocho núcleos que incluye una unidad de procesamiento neuronal, o NPU, capaz de realizar 45 billones de operaciones por segundo. Eso le permite ejecutar funciones de inteligencia artificial sin conexión a internet. La batería promete durar hasta 16 horas navegando por la web y hasta 23 horas viendo video, lo que significa que podrías usarlo durante toda una jornada laboral, más el viaje de vuelta, sin cargarlo. La Surface Pro también trae este chip, y se transforma en portátil al conectarle un teclado desmontable. Pesa apenas 680 gramos y tiene un lápiz que se guarda magnéticamente detrás de la pantalla.
A pesar de las mejoras técnicas y el precio más accesible —cien y doscientos dólares menos que los modelos de 2024— no todos están convencidos. Los computadores Copilot+ con IA integrada no han tenido la acogida que Microsoft esperaba. Analistas de firmas como Raymond James reportan que muchas personas y empresas aún no ven claro el valor añadido de estas funciones. Además, al usar procesadores basados en arquitectura Arm, puede haber incompatibilidades con programas más antiguos diseñados para chips Intel. También desaparece el cargador con puerto magnético tradicional de Microsoft: ahora se usa un puerto USB‑C estándar, algo que algunos celebran por su universalidad, pero que otros ven como una pérdida del “sello Surface”. Y hay una preocupación más profunda: muchas de estas funciones nuevas, como Recall, que graba todo lo que aparece en tu pantalla para permitir búsquedas posteriores, han generado inquietudes sobre privacidad.
Ahora bien, Microsoft ha diseñado estas Surface pensando en el futuro de Windows. Con el fin del soporte para Windows 10 anunciado para el 14 de octubre, muchas personas deberán decidir si pagan por soporte extendido —que costará 30 dólares al año— o si cambian de equipo. La compañía quiere que esta nueva generación de Surface sea una opción atractiva para actualizar. Por ejemplo, incorpora funciones como el agente en Configuración, que entiende órdenes en lenguaje natural. Puedes decir “la letra está muy pequeña” y el sistema ajustará el tamaño por ti. También estrena mejoras en la herramienta de capturas de pantalla, que identifica automáticamente la parte más relevante de una imagen. Algunas aplicaciones como CapCut y DaVinci Resolve ya están optimizadas para estas Surface con IA: tareas como editar video o separar voces en una canción pueden ser hasta 30 veces más rápidas que en un computador sin NPU. Todo esto apunta a una nueva generación de PCs más inteligentes, autónomos y adaptables.
Estos equipos estarán disponibles para entrega a partir del 20 de mayo, en colores nuevos como violeta, océano y platino. Las versiones empresariales llegarán el 22 de julio, con Windows 11 Pro, pantallas antirreflejo y lector NFC para mayor seguridad. Además de la velocidad y autonomía, Microsoft también ha puesto el foco en la sostenibilidad. El Surface Laptop incluye cobalto 100 % reciclado en la batería y metales reciclados en los imanes y la carcasa. La Surface Pro llega con un 82,9 % de materiales reciclados en su estructura. Ambas máquinas permiten reemplazar componentes clave a través de técnicos certificados, lo cual representa un paso importante hacia una tecnología más circular y reparable. Para quienes ya tienen experiencia con dispositivos Apple, estas Surface ofrecen algo diferente: un sistema Windows completo, más abierto a personalización, y ahora, con una integración de inteligencia artificial que se ejecuta directamente en el equipo, sin depender de la nube.
Las nuevas Surface llegan más baratas, más livianas y listas para aprovechar la inteligencia artificial desde el primer día, justo cuando Windows 10 se despide. ¿Estás pensando en renovar tu equipo? Cuéntamelo y escucha más en el pódcast Flash Diario en Spotify.
📚 Bibliografía📚
CNBC GeekWire The Verge Windows Blog Bloomberg
Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. -
Material 3 Expressive: El nuevo diseño emocional de Google para Android transforma las apps aburridas en experiencias atractivas
Por Félix Riaño @LocutorCo
Google filtró por error detalles sobre su rediseño de Android llamado Material 3 Expressive, un enfoque basado en emociones, colores y formas audaces.
Google no quiso publicarlo aún, pero ya se conoce el próximo gran cambio visual de Android. Se llama Material 3 Expressive y busca que las aplicaciones conecten mejor con las personas. En lugar de priorizar diseños limpios y aburridos, este nuevo estilo usa colores vibrantes, formas atrevidas y movimiento para guiar la atención del usuario. ¿Por qué todas las apps se veían tan parecidas? Esa fue la pregunta inicial del equipo de diseño de Google. Ahora, con resultados de más de 46 estudios y 18.000 participantes, tienen una respuesta. ¿Y tú, prefieres apps funcionales o emocionantes?
No todo el mundo verá este cambio: solo los Pixel lo recibirán completo
En mayo de 2025, Google iba a presentar en su evento I/O el rediseño de Android. Pero un error hizo que se publicara antes de tiempo un blog donde explicaban en detalle cómo llegaron a ese cambio: Material 3 Expressive. Esta nueva etapa del sistema de diseño visual de Android nace con una promesa clara: hacer que las apps dejen de verse iguales y que el diseño ayude a conectar emocionalmente con las personas. Las formas grandes, los colores fuertes, las animaciones y los espacios vacíos ayudan a que la atención del usuario se dirija directamente a lo importante en pantalla.
Durante años, Google aplicó el mismo lenguaje visual en muchas aplicaciones. Eso trajo coherencia, pero también aburrimiento. Todo se veía igual. Por eso el equipo de diseño se preguntó: ¿no se puede hacer algo más emocionante? Comenzaron un proceso de investigación largo. En lugar de tomar decisiones con datos fríos como "cuántos tonos de azul funcionan mejor", usaron métodos como seguimiento ocular, pruebas de usabilidad y encuestas sobre emociones. Más de 18.000 personas en todo el mundo participaron en esos estudios. El resultado: Material 3 Expressive, un diseño con personalidad. Pero no todos los fabricantes de celulares van a adoptarlo por igual.
Según los estudios de Google, los usuarios que probaron Material 3 Expressive encontraron más rápido los botones importantes: hasta 4 veces más rápido. Por ejemplo, en una app de correo, el botón de enviar pasó de estar en una esquina escondida a ser grande, visible y justo sobre el teclado. Además, personas mayores de 45 años pudieron usar la app tan fácilmente como los jóvenes. Esto reduce la brecha digital. Pero aún hay obstáculos: muchos fabricantes como Samsung o OnePlus no usan el Android puro de Google, sino sus propias versiones. Así que aunque el diseño Expressive llegue a Android 16, solo los teléfonos Pixel lo van a tener completo al principio. Otros lo verán de forma parcial o quizá nunca lo vean.
Material Design nació en 2014, con la idea de que todo en Android se viera coherente. En 2021 apareció "Material You", una evolución que permitía personalizar los colores del sistema con el fondo de pantalla. Ahora llega esta nueva etapa: "Material 3 Expressive". Google explica que no es una ruptura total, sino una evolución para dar más emoción al diseño. Las herramientas que usarán los diseñadores incluyen formas flotantes, colores secundarios llamativos y botones más grandes. También prometen compartir el código y plantillas con los desarrolladores durante el evento Google I/O. La intención es que todas las apps, no solo las de Google, puedan adoptar este diseño. Pero eso depende de cada desarrollador.
Google quiere que Android emocione visualmente con Material 3 Expressive. ¿Lo logrará? Dependerá de si los desarrolladores lo adoptan.
Sigue nuestro pódcast Flash Diario en Spotify para no perderte los próximos avances.
📚 Bibliografía 📚
9to5Google TechCrunch The Verge Droid Life Ars Technica
Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. -
Presupuesto de Trump impulsa a SpaceX mientras recorta 24 % del dinero para NASA
Por Félix Riaño @LocutorCo
El nuevo presupuesto del presidente Donald Trump propone recortar en más de 6 mil millones de dólares el dinero para la NASA en 2026. Es el mayor recorte propuesto a la agencia espacial en toda su historia. Mientras tanto, esos fondos no desaparecen: se redirigen hacia programas de defensa espacial y hacia compañías privadas como SpaceX, que podrían recibir miles de millones en nuevos contratos. El plan sugiere eliminar el cohete SLS de Boeing y la cápsula Orión de Lockheed Martin, pilares de las misiones Artemisa, y en su lugar usar cohetes más económicos fabricados por empresas como SpaceX y Blue Origin. También busca cancelar la estación lunar Gateway, un proyecto internacional en el que participan Europa, Japón, Canadá y Emiratos Árabes Unidos. En paralelo, se propone aumentar mil millones de dólares para misiones a Marte, alineándose con el sueño de Elon Musk de colonizar el planeta rojo. ¿Es esto un impulso a la innovación o una apuesta riesgosa que pone en pausa la ciencia y las alianzas internacionales?
El plan desplaza contratos clave hacia empresas privadas estadounidenses.
La propuesta del presupuesto federal de 2026, publicada justo en el Día Nacional del Espacio, plantea una nueva visión sobre cómo y con quién se explora el universo. Mientras que otros años se había celebrado la cooperación internacional y el avance científico como pilares de la NASA, este documento concentra los recursos en programas más comerciales y militares. Se trata de una reorientación hacia el espacio como escenario de competencia económica y estratégica. SpaceX, empresa de Elon Musk, aparece como protagonista principal en esta nueva etapa. Actualmente, ya es la contratista más grande del Pentágono y de la NASA, y este presupuesto le abriría aún más puertas. Las inversiones más ambiciosas se concentran en dos objetivos concretos: la defensa antimisiles desde el espacio y los viajes tripulados a Marte. La empresa ha estado preparando su nave Starship justamente con este propósito. Si se aprueba este plan, Estados Unidos cambiaría su enfoque del conocimiento científico hacia la conquista y protección desde el espacio.
El cambio de prioridades ha despertado preocupaciones entre científicos, académicos y expertos en política espacial. La propuesta recorta en un 47 % el presupuesto de ciencia de la NASA, lo que afectaría satélites para monitorear el clima, misiones robóticas a otros planetas y programas de observación del universo profundo. Además, pone en riesgo miles de empleos científicos y técnicos. La estación Gateway, que serviría como plataforma para futuras misiones a la Luna y Marte, sería cancelada, lo cual afecta acuerdos con Japón, Canadá, Europa y Emiratos Árabes Unidos. La Estación Espacial Internacional también enfrentaría recortes: menos astronautas, menos experimentos y una retirada anticipada en 2030. Para muchos, esta propuesta no es solo un cambio presupuestal, sino una transformación del modelo de cooperación científica por uno centrado en el interés nacional y privado. Organizaciones como The Planetary Society advierten que el presupuesto es una amenaza directa a la formación de nuevos científicos y al liderazgo global de Estados Unidos en exploración espacial.
Aunque este presupuesto aún debe ser aprobado por el Congreso, ya está generando un fuerte debate. La congresista Grace Meng dijo que los recortes son "impactantes" y que destruirán años de trabajo de investigadores y educadores. Otros legisladores, como George Whitesides, aseguran que este sería el ataque más fuerte a la NASA en décadas. Del lado empresarial, hay quienes celebran el giro hacia sistemas “más eficientes” y dicen que los cohetes de SpaceX y Blue Origin pueden hacer lo mismo que el SLS, pero con menos dinero. El propio Elon Musk ha sugerido retirar la Estación Espacial antes de 2030 y usar los recursos para su visión marciana. Mientras tanto, la NASA sigue construyendo el cohete SLS y la cápsula Orión para las misiones Artemisa 3 y 4, que ya están en marcha. Los ingenieros que trabajan en estos proyectos piden claridad, mientras las alianzas internacionales esperan señales oficiales. En el fondo, esta discusión refleja una tensión entre dos modelos: la ciencia pública con alianzas globales, y la exploración comercial con fines estratégicos.
Durante el año fiscal 2024, SpaceX ya había asegurado contratos por 3.800 millones de dólares. En total, desde su fundación, la empresa ha recibido más de 18.000 millones en contratos federales. Uno de sus mayores logros recientes es el contrato para desorbitar la Estación Espacial Internacional cuando termine su vida útil. Ese trabajo está valorado en 843 millones. También está construyendo la nave Starship, pensada para llegar a Marte y que ya ha sido elegida por la NASA para aterrizar en la Luna durante la misión Artemisa 3. Por otro lado, Boeing y Lockheed Martin enfrentan la posible cancelación de sus contratos, pese a haber invertido décadas en el desarrollo de las misiones actuales. Mientras SpaceX avanza con cohetes reutilizables, las grandes contratistas tradicionales quedan en una posición incierta. Japón, que tenía previsto enviar a su primer astronauta a la Luna como parte del programa Artemisa, también ve peligrar su participación. Las decisiones sobre estos temas aún están en manos del Congreso, que deberá decidir si sigue esta nueva ruta o defiende el modelo científico tradicional.
Trump propone una reestructuración espacial: más fondos para SpaceX, menos para ciencia pública. Marte y defensa ganan protagonismo, mientras NASA pierde apoyo internacional. ¿Es esto el futuro de la exploración espacial? Te invito a seguir escuchando Flash Diario en Spotify y comentar tu opinión.
Bibliografía:The New York Times Reuters Spaceflight Now Planetary Society
Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. -
Una sonda soviética de 1972 caerá a la Tierra. Riesgo bajo, pero podría sobrevivir reentrada e impactar
Por Félix Riaño @LocutorCo
Un pedazo de historia espacial soviética volverá a la Tierra sin frenos ni rumbo definido. Se trata del módulo de descenso de la sonda Kosmos 482, una esfera metálica de 495 kilogramos que fue diseñada para soportar la atmósfera abrasadora de Venus. Pero nunca llegó a Venus. Quedó atrapada en una órbita terrestre elíptica y, tras más de medio siglo girando sobre nuestras cabezas, caerá a la Tierra. Los expertos estiman que reingresará a la atmósfera entre el 7 y el 13 de mayo de 2025. No se sabe dónde caerá, pero podría ser en cualquier parte entre las latitudes 52º norte y 52º sur.
La sonda fue construida para sobrevivir la entrada a Venus
Todo comenzó en marzo de 1972, cuando la Unión Soviética lanzó dos sondas con destino a Venus. La primera, Venera 8, cumplió su misión y logró transmitir durante 50 minutos desde la superficie de Venus. La segunda, su hermana gemela, tuvo menos suerte. Esa segunda sonda fue bautizada como Kosmos 482, nombre que se asignaba a los satélites que fracasaban en salir de la órbita terrestre. Tras una falla en la etapa superior del cohete Soyuz, la sonda quedó atrapada orbitando la Tierra en una trayectoria elíptica. La mayor parte de la nave cayó en 1981, pero el módulo de descenso quedó girando en silencio durante más de cinco décadas.
Ahora, ese módulo de descenso está cayendo de nuevo hacia la Tierra. La esfera mide aproximadamente un metro de diámetro y fue diseñada para sobrevivir las condiciones extremas de Venus: una presión noventa veces mayor que la terrestre y temperaturas de 470 °C. Eso quiere decir que, si su escudo térmico sigue intacto, podría atravesar la atmósfera terrestre sin desintegrarse. Viajará a unos 242 kilómetros por hora al tocar suelo. La probabilidad de que impacte sobre una persona es baja, pero no es cero. El objeto puede caer en cualquier parte de la Tierra entre las latitudes de Londres y Ciudad del Cabo, pasando por regiones muy pobladas.
El investigador neerlandés Marco Langbroek, quien sigue la trayectoria del objeto, indica que se trata de una reentrada de "alto interés". Las agencias espaciales y observadores amateurs continúan rastreándolo. El sitio Heavens-Above.com muestra dónde se puede ver la sonda en el cielo nocturno. Aunque el riesgo sea pequeño, los astrónomos están atentos. Jonathan McDowell, del Centro Harvard-Smithsonian, dijo que lo mejor sería que el escudo térmico esté dañado y el objeto se desintegre. Si no, caerá como un meteorito metálico. Las leyes internacionales de responsabilidad espacial exigen que el país lanzador responda por los daños. Eso pondría la responsabilidad sobre el actual gobierno de Rusia. Mientras tanto, la probabilidad de que impacte en el mar es mayor al 70 %, ya que la mayor parte de la superficie de la Tierra es agua.
Kosmos 482 es parte del legado del programa Venera, que entre 1961 y 1984 envió 13 sondas a Venus. Las primeras no lograron transmitir datos, pero Venera 7 fue la primera en hacerlo desde otro planeta. Venera 8 confirmó las condiciones infernales de Venus. Estas misiones ayudaron a entender mejor las atmósferas extremas y a construir mejores sondas. Hoy en día, la reentrada de Kosmos 482 pone en evidencia el problema de la basura espacial. Más de 29.000 objetos mayores a 10 centímetros orbitan la Tierra. Algunas agencias están trabajando en sistemas para retirar esos objetos del espacio. Velas de frenado, remolcadores espaciales y otras soluciones están en desarrollo. El caso de Kosmos 482 sirve como recordatorio de que lo que enviamos al espacio puede regresar sin invitación.
Kosmos 482, una sonda que no cumplió su destino en Venus, podría caer en la Tierra entre el 7 y el 13 de mayo. El riesgo es mínimo, pero real. Mantente informado y comparte este episodio. Síguenos en Flash Diario en Spotify
Bibliografía Live ScienceAP NewsForbesNew York Post
Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. -
NotebookLM transforma tus PDFs en podcasts bilingües: selecciona idioma, escucha un resumen conversacional y comparte conocimiento sin fronteras
Por Félix Riaño @LocutorCo
Google acaba de abrir un nuevo capítulo en la carrera por la inteligencia artificial accesible. NotebookLM, su cuaderno digital que ya resumía textos como un experto diligente, ahora va a ofrecer Audio Overviews en más de cincuenta idiomas. Así, la función que nació en septiembre limitada al inglés cambia el panorama educativo, laboral y creativo. ¿Te imaginas escuchar un análisis de tus fuentes en español de México, en francés de Canadá o en swahili sin recurrir a traducciones automáticas poco fiables? Con solo pulsar el engranaje de ajustes y elegir “Output Language”, el sistema genera voces conversacionales capaces de explicar, bromear y pausar en la lengua que selecciones. La promesa suena enorme: ¿cómo va a transformar esto la forma en que aprendemos y compartimos conocimiento?
La traducción automática ya no es el puente exclusivo, ahora escuchas al puente hablar.
NotebookLM saltó al escenario en 2024 como un asistente que toma tus documentos, PDF, videos y enlaces, y los convierte en resúmenes con citas verificables. Hasta hace poco el servicio se limitaba al texto y la voz en inglés, lo cual encorsetaba su alcance. Pero los equipos de Google Labs integraron la compatibilidad nativa de audio de Gemini 2.5 Pro, el modelo que “entiende” lenguaje natural y entonaciones. Ahora, cualquier usuario de los más de doscientos países donde está disponible va a subir un informe sobre el Amazonas en portugués, agregar un artículo en español y un ensayo en inglés, para después generar un podcast amistoso que explique todo en catalán, coreano o guaraní. El cambio no se limita a la interfaz: la IA adapta chistes locales, ejemplos culturales y mantiene el estilo cercano que cautivó a los primeros usuarios.
Hablar varios idiomas suele requerir años de estudio o costosos servicios de doblaje. Esto excluye a millones de estudiantes que aprenden con materiales ajenos a su lengua materna y a creadores que desean llegar a nuevas audiencias. Además, los traductores automáticos tradicionales pierden matices, introducen errores y rompen el ritmo de una narración. NotebookLM propone una solución, pero todavía existen retos: las voces pueden atascarse con nombres propios infrecuentes, producir traducciones literales en idiomas con pocos datos y tardar varios minutos en procesar cuadernos extensos. Google advierte que el servicio sigue en versión beta y que va a mejorar con la retroalimentación de la comunidad. Por eso, docentes y periodistas deben revisar las salidas antes de publicarlas para evitar desinformación.
La expansión multilingüe abre oportunidades globales. Un profesor de biología en Bogotá va a crear guías de estudio para alumnos que hablan español latinoamericano, portugués brasileño y francés europeo, todo desde la misma plataforma. Una investigadora en Madrid va a convertir un archivo de 218 páginas sobre teoría de cuerdas en un debate ameno en japonés para su colega en Tokio. Emprendedores de podcasts podrán producir episodios simultáneos en varias lenguas sin contratar locutores adicionales. Esto democratiza el acceso al aprendizaje auditivo y al contenido especializado. La clave será utilizar la opción de “Output Language” con criterio: comparar resultados, corregir rarezas y aportar contexto humano. Si la comunidad adopta buenas prácticas, vamos a escuchar un ecosistema de audio realmente plural, donde cada acento encuentra su espacio y la información cruza fronteras sin perder sabor local.
Google integró Audio Overviews en Gemini App y en Google Docs, de modo que los usuarios pueden convertir apuntes, diapositivas y largos ensayos en episodios sonoros portátiles. TechRadar destaca que los presentadores sintéticos mantienen un tono de charla de café, lejos de la locución robótica. The Verge señala que la novedad llega el mismo día en que Google celebra el Día Internacional del Idioma, reforzando su estrategia de inclusión digital. Además, 9to5Googleenumera los 50 idiomas soportados, desde afrikáans hasta vietnamita, incluyendo variantes regionales de español, francés y portugués. Cada audio se genera dentro de la cuenta del usuario; Google asegura que el contenido subido no alimenta al modelo, protegiendo la privacidad. Aunque la opción está activa desde hoy, algunos dialectos como sindhi o maithili podrían presentar errores fonéticos que la compañía planea pulir pronto.
NotebookLM ahora habla más de cincuenta idiomas y convierte tus documentos en podcasts amistosos. Explora la función, revisa los resultados y comparte tus hallazgos. Si te atrae conocer estos avances cada día, sigue Flash Diario en Spotify.
📚 BibliografíaBlog oficial de Google9to5GoogleThe VergeTechRadar
Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. -
Google adelanta el Android Show para revelar Android 16, nuevas funciones y avances de inteligencia artificial antes de I/O 2025
Por Félix Riaño @LocutorCo
Google anunció que el próximo 13 de mayo transmitirá en vivo un episodio especial de The Android Show titulado "I/O Edition". Este evento podrá verse en YouTube y en android.com. Será una semana antes del inicio de Google I/O, la conferencia anual de desarrolladores de Google, que comenzará el 20 de mayo. Sameer Samat, presidente del ecosistema Android, presentará los avances previstos. Google explicó que esta presentación anticipada responde al creciente interés por conocer las mejoras que llegarán con Android 16, las innovaciones en realidad extendida y los avances en nuevos lentes inteligentes. ¿Revelarán ya todas las sorpresas o dejarán lo mejor para I/O? Además, los desarrolladores podrán enviar preguntas en tiempo real durante la emisión.
¿Será Android desplazado por la inteligencia artificial en el próximo Google I/O?
The Android Show nació como un espacio técnico en YouTube dedicado a programadores, donde se compartían códigos, APIs y novedades sobre desarrollo de aplicaciones. Hasta ahora era un contenido poco accesible para el público general. Esta vez, Google apuesta por un formato más abierto. El 13 de mayo, a las 13:00 en Bogotá, 12:00 en Ciudad de México y 20:00 en Madrid, Sameer Samat presentará funciones clave de Android 16. Entre ellas estarán mejoras de accesibilidad, nuevas medidas de seguridad contra robos, y la expansión de herramientas como Circle to Search a más idiomas. El evento será gratuito y estará disponible para todo el público, no solo para desarrolladores.
Aunque los avances generan entusiasmo, también despiertan preocupaciones. Desde hace algunos años, Android ha ido perdiendo protagonismo en Google I/O, desplazado por los anuncios sobre inteligencia artificial, como el proyecto Gemini. Separar las noticias de Android en un evento previo plantea dos riesgos. Primero, el de la fragmentación: muchos dispositivos no reciben las actualizaciones a tiempo, lo que retrasa mejoras esenciales de seguridad y privacidad. Segundo, el de la dispersión: con tantos tipos de dispositivos —relojes, televisores, autos y gafas inteligentes— Android enfrenta el reto de ofrecer una experiencia coherente en todos los formatos. Revelar demasiadas novedades podría generar frustración si tardan en llegar; revelar poco podría disminuir el interés del público.
Google asegura que el Android Show no agotará las novedades que se presentarán en I/O. Durante la conferencia, Sundar Pichai y Rick Osterloh van a profundizar en el uso de Gemini dentro de Android, presentarán avances del Proyecto Astra —que busca desarrollar gafas inteligentes capaces de responder a comandos visuales— y lanzarán la primera beta pública de Android 16. Se espera que Android 16 incluya mejoras como multitarea adaptable, un modo de ahorro de energía basado en rutas frecuentes, y un nuevo widget de bienestar que detecta la postura corporal usando la cámara frontal. Sameer Samat explicará también cuándo estarán disponibles estas funciones en dispositivos Pixel y en marcas como Samsung y Xiaomi, además de confirmar la continuidad de Android Go para teléfonos básicos. Si la hoja de ruta convence, los usuarios podrán disfrutar de estas novedades a partir de septiembre.
Google ha probado estrategias similares en el pasado. En 2023 adelantó actualizaciones de WearOS mediante publicaciones de blog antes de I/O, y en 2024 presentó avances del chip Tensor G4 mediante comunicados oficiales. Estas iniciativas lograron millones de visitas y redujeron preguntas frecuentes en foros de la comunidad. Para este año, la apuesta es aún mayor. Android XR, que combina realidad aumentada y virtual, recibirá nuevas herramientas de diseño en tres dimensiones y una API que optimizará el uso de energía en visores ligeros, aunque todavía no se espera el lanzamiento del visor desarrollado junto a Samsung.
Además, filtraciones sobre Android 16 apuntan a un nuevo sistema de actualizaciones en segundo plano para televisores inteligentes, lo cual reducirá los tiempos de reinicio y mejorará la experiencia para quienes usan su televisor para estudiar, trabajar o jugar en línea.
Google ha decidido separar las novedades de Android para dedicar más espacio en I/O a la inteligencia artificial. El Android Show será la antesala ideal para conocer las nuevas funciones de Android 16 y entender el rumbo que tomará el ecosistema de Google. Vale la pena seguir ambos eventos para no perder detalle de las transformaciones que vienen. ¡Te invito a escuchar Flash Diario en Spotify y a compartir este episodio con tus amigos!Flash Diario en Spotify
Bibliografía:
Engadget Droid-Life The Verge TechCrunch 9to5Google Thurrott Sígueme en Instagram
Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. -
Cultivan cuero de T-Rex en laboratorio. ¡Bolsos de dinosaurio llegarán este año! Ciencia, lujo y sostenibilidad en uno
Por Félix Riaño @LocutorCo
Imagínate sostener un bolso con la textura rugosa del rey de los dinosaurios, sin cazar ningún animal vivo y sin usar cuero tradicional. La empresa VML, junto con Lab-Grown Leather y The Organoid Company, están trabajando para crear piel auténtica de Tyrannosaurus rex en laboratorio. ¿Cómo lo logran? Usan fragmentos de colágeno hallados en fósiles de ochenta millones de años. Su objetivo es lanzar la primera pieza de lujo antes de que termine 2025, posiblemente durante la temporada navideña. Además de revolucionar la moda, quieren demostrar que la biotecnología puede reducir la deforestación y los químicos tóxicos que usa la curtición tradicional. ¿Veremos pronto bolsos prehistóricos en las vitrinas de París y Nueva York?
Pero el proyecto enfrenta desafíos éticos, técnicos y ecológicos inesperados
Todo empezó cuando paleobiólogos lograron recuperar microscópicos fragmentos de colágeno de un fémur fosilizado de T-Rex en Montana. Aunque durante mucho tiempo se creyó imposible, nuevos métodos permitieron conservar y analizar esas moléculas de proteínas. The Organoid Company, líder en ingeniería genómica, reconstruyó la secuencia completa del colágeno a partir de esos fragmentos. Después, Lab-Grown Leather, usando su plataforma avanzada ATEP™, insertó esta información en células cultivadas sin necesidad de sueros animales ni andamios artificiales. El resultado: una dermis densa, formada de manera natural, que imita a la perfección la piel original del dinosaurio. El toque creativo vino de VML, la agencia que diseñará los primeros accesorios de lujo hechos con esta nueva piel jurásica.
Aunque suena increíble, fabricar cuero de T-Rex presenta complicaciones. Primero, el colágeno fosilizado no está completo, por lo que se rellenan vacíos usando modelos de inteligencia artificial, generando debate sobre qué tanto de ese cuero será "realmente" de dinosaurio. Además, la legislación actual no contempla cómo regular productos elaborados a partir de especies extintas, y organismos conservacionistas temen que esta tecnología fomente la extracción irresponsable de fósiles. Desde el punto de vista económico, se espera que los primeros productos tengan precios altísimos: algunos expertos calculan bolsos de más de 20 000 dólares. También surgen dudas éticas: ¿deberíamos comercializar tejidos que pertenecieron a criaturas desaparecidas hace 66 millones de años? Además, aunque el proceso es más limpio que la curtición tradicional, la producción en biorreactores consume energía, lo que levanta preguntas sobre su verdadero impacto ambiental.
Frente a estos retos, los impulsores del proyecto ofrecen respuestas claras. El cuero T-Rex, conocido como Elemental Leather™, será completamente biodegradable y tendrá una huella de carbono aproximadamente treinta por ciento menor que la del cuero bovino tradicional. Lab-Grown Leather publica parte de la información genética reconstruida, para que otros laboratorios puedan verificar la autenticidad del proceso. Además, los bolsos incluirán un código QR que permitirá rastrear la procedencia de los fósiles, las etapas de producción y los indicadores ecológicos. Si las pruebas de resistencia mecánica, programadas para julio de 2025, son exitosas, los primeros bolsos se presentarán en una pasarela en Ámsterdam a finales de año. El plan no se queda ahí: las empresas ya negocian acuerdos con fabricantes de automóviles eléctricos para producir interiores tapizados con esta piel jurásica, ampliando el uso de biomateriales innovadores en nuevas industrias.
El antecedente inmediato fue el proyecto de la albóndiga de mamut, presentado en 2023. En esa ocasión, investigadores usaron ADN de mamut completado con genes de elefante para cocinar una albóndiga de proteína reconstruida. Ahora, con el cuero de T-Rex, el reto es aún mayor porque implica replicar la estructura física completa de una piel prehistórica. Este esfuerzo ocurre mientras la industria del cuero enfrenta fuertes restricciones: en 2024, Brasil registró una deforestación ganadera cercana a 13 000 kilómetros cuadrados, y la Unión Europea prohibirá el uso de curtientes de cromo hexavalente a partir de 2027. Además, los biomateriales están en auge: se proyecta que el mercado mundial superará los 47 900 millones de dólares para 2030, creciendo alrededor del 15 % anual. En ese escenario, materiales como el cuero de T-Rex podrían convertirse no solo en un lujo exclusivo, sino en símbolos de innovación sostenible para las próximas generaciones.
El cuero jurásico pasa de la ciencia ficción al escaparate real. Si el equipo logra escalar la producción, veremos bolsos con ADN de T-Rex que conjugan lujo, biotecnología y responsabilidad ambiental. ¿Te atreverías a llevar un accesorio inspirado en un depredador de 66 millones de años? Cuéntamelo y no te pierdas más historias como esta en el pódcast Flash Diario.
Flash Diario en Spotify en tu plataforma favorita.
Bibliografía
The Daily Galaxy The Telegraph The Times VML Newsroom
Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. -
Motorola presenta el Razr Ultra 2025: pantalla de 7 pulgadas, IA integrada y acabado en madera
Por Félix Riaño @LocutorCo
Motorola lanza un teléfono plegable con inteligencia artificial, pantalla grande, tres cámaras potentes y materiales exclusivos como madera y Alcantara.
Motorola dio un golpe visual y tecnológico con el anuncio del Razr Ultra 2025: el primer teléfono plegable de su línea con tapa de madera real, tres cámaras de 50 megapíxeles y un botón físico exclusivo para inteligencia artificial. Además, es el único modelo con grabación en Dolby Vision y pantalla interna de 7 pulgadas con brillo máximo de 4.500 nits, lo que lo convierte en el teléfono más luminoso del mercado hasta la fecha. En un giro inesperado, Motorola apuesta por materiales poco comunes como Alcantara y madera FSC, reforzando su identidad de marca con estilo premium y experiencia táctil única. ¿Será este el plegable que logre mover usuarios desde el iPhone Pro Max hacia Android?
Motorola solo garantiza tres años de actualizaciones
El nuevo Razr Ultra pertenece a una generación de teléfonos que pueden doblarse por la mitad, como los celulares con tapa de hace veinte años, pero con pantallas táctiles modernas. Al estar cerrado, muestra una pantalla externa de 4 pulgadas para ver mensajes, tomar fotos o controlar música. Cuando se abre, despliega una pantalla de 7 pulgadas, más grande que la de muchos teléfonos convencionales. Esta versión incluye acabados de lujo, como madera real certificada y tela Alcantara, una especie de gamuza sintética italiana muy suave al tacto. Además, su carcasa está reforzada con titanio, lo que le da mayor resistencia sin aumentar el peso.
Aunque el Razr Ultra tiene características atractivas, hay decisiones que podrían afectar su recepción. Solo recibirá tres años de actualizaciones de sistema y cuatro años de seguridad, mientras otros fabricantes ofrecen hasta siete años. Eso acorta la vida útil del teléfono desde el punto de vista del software. Por su precio, que alcanza los 1.300 dólares, muchos usuarios podrían esperar un soporte más duradero. Además, si bien la inteligencia artificial es una de sus mayores apuestas, todavía está por verse si las funciones como “Catch Me Up” o “Remember This” serán realmente útiles en el día a día, o si quedarán como funciones llamativas sin aplicación práctica real.
A pesar de esos retos, Motorola ha logrado crear un teléfono visualmente impactante y funcionalmente innovador. Su sistema de inteligencia artificial, Moto AI, agrupa funciones como grabación de voz con transcripción automática, resúmenes de notificaciones y sugerencias personalizadas según el contenido en pantalla. Puedes pedirle que recuerde información específica y luego recuperarla con una simple pregunta. El teléfono también incorpora funciones exclusivas de cámara como Group Shot, que evita fotos de grupo arruinadas, y Action Shot, que congela el movimiento sin desenfoque. El botón físico dedicado a Moto AI permite activar todo esto sin tocar la pantalla. La experiencia de uso es completamente nueva para quienes vienen de un teléfono convencional.
El Razr Ultra tiene una batería de 4.700 miliamperios hora, que se carga rápidamente con 68 vatios por cable y 30 vatios de forma inalámbrica. Su memoria RAM alcanza los 16 GB y el almacenamiento interno puede llegar hasta 1 TB. Además, es el único modelo de la línea con sensores de cámara con píxeles de 2 micrómetros, lo que mejora la calidad en condiciones de poca luz. Motorola también presentó dos accesorios nuevos: los audífonos Moto Buds Loop, con cristales Swarovski y sonido optimizado por Bose, y el reloj Moto Watch Fit, que mide actividad física y sueño, y tiene 16 días de autonomía. Ambos estarán disponibles en las próximas semanas.
El Razr Ultra 2025 combina diseño premium, funciones avanzadas y un enfoque innovador en inteligencia artificial. Puede ser una opción ideal para quienes buscan un teléfono que se destaque visualmente y ofrezca nuevas formas de interacción. ¿Tú lo usarías? Escucha más en el pódcast Flash Diario.
Razr Ultra: madera, IA, Dolby Vision y pantalla de 7 pulgadas.
🔗 Bibliografía
The VergeWiredCNETBloomberg
Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. -
Gafas traductoras de MetaTraducción en tiempo real llega a las Ray-Ban Meta en todo el mundo
Por Félix Riaño @LocutorCo
Meta lanzó una función de traducción en tiempo real para sus gafas inteligentes Ray-Ban, una de las apuestas más ambiciosas de la empresa en su camino hacia la integración total entre lo digital y lo cotidiano. Esta tecnología, que hasta hace poco parecía sacada de una película de ciencia ficción, permite que personas que hablen distintos idiomas —como inglés, francés, italiano o español— mantengan conversaciones fluidas sin necesidad de intérpretes ni aplicaciones externas.
Basta con ponerse las gafas y activar la función: el sistema detecta el idioma, lo traduce y lo transmite al usuario en tiempo real, directamente al oído. Además, no requiere conexión a internet si se han descargado previamente los paquetes de idioma, lo que resulta ideal para viajeros que cruzan fronteras o exploran zonas sin señal.
Como parte de esta misma actualización, Meta ha comenzado a desplegar funciones visuales que reconocen objetos, alimentos y monumentos con solo mirarlos. Esta capacidad transforma las gafas en una especie de guía turística inteligente. Todo este paquete de mejoras llega sin costo adicional para quienes ya son usuarios, lo que refuerza la estrategia de Meta por consolidar un ecosistema tecnológico más atractivo y completo.
Unas gafas de sol que te traducen lo que dice otra persona, sin necesidad de sacar el teléfono. Así es la nueva función de las Ray-Ban Meta, que a partir de ahora están disponibles con traducción instantánea para todos los usuarios, después de un periodo limitado solo en ciertos países. Esta tecnología permite entender y responder en cuatro idiomas principales: inglés, francés, italiano y español.
También se anunció que las gafas se lanzarán pronto en México, India y Emiratos Árabes Unidos. Meta AI ahora está disponible en siete nuevos países europeos y permitirá reconocer objetos y lugares con solo mirarlos. ¿Estamos ante el inicio de un nuevo tipo de comunicación global sin barreras
No todo el mundo está feliz con unas gafas que pueden grabar, traducir y reconocer lo que estás viendo
Imagina estar en un mercado de París, sin saber francés, pero con las Ray-Ban Meta puestas. Un vendedor te habla y las gafas traducen sus palabras al instante, directo a tu oído. Tú respondes en español, y tu mensaje aparece en la pantalla del teléfono del vendedor, ya traducido. Esta función de traducción en vivo no necesita conexión a internet si descargas el idioma antes de salir.
Además, las gafas capturan fotos, reproducen música y permiten hacer preguntas a Meta AI sobre cualquier cosa que veas. Puedes preguntar qué especie de flor estás mirando o qué plato típico está frente a ti. Con solo decirlo en voz alta, recibes una respuesta natural, sin tener que usar comandos especiales. Esto convierte a las gafas en asistentes personales visuales y auditivos, al estilo de Star Trek, pero en el bolsillo.
El despliegue de estas funciones no fue tan fácil como parece. En Europa, Meta tuvo que enfrentar restricciones legales estrictas sobre privacidad. Las gafas graban audio y video, y aunque tienen una luz que indica cuándo están activas, muchas personas podrían no darse cuenta. Las autoridades europeas exigieron a Meta más garantías sobre el uso de datos recolectados por las gafas. Además, los defensores de derechos digitales advierten que esta tecnología podría ser usada para vigilancia encubierta o reconocimiento facial sin consentimiento.
También preocupa la dependencia del ecosistema de Meta: la traducción en vivo está vinculada al uso de su app móvil, lo que refuerza el control de la empresa sobre la experiencia del usuario. Mientras la tecnología avanza, la pregunta sigue abierta: ¿podremos confiar en una IA que está literalmente sobre nuestros ojos?
Pese a las críticas, Meta sigue apostando por estas gafas como su producto estrella en el camino hacia una realidad aumentada completa. Las nuevas funciones no solo se centran en traducir. Ahora también puedes pedirle a Meta AI que te recomiende vinos, que te diga si puedes sustituir la mantequilla por otro ingrediente, o que reconozca monumentos históricos. El despliegue incluye siete nuevos países europeos: Alemania, Austria, Bélgica, Dinamarca, Noruega, Suecia y Finlandia.
En América, las gafas llegan pronto a México, un mercado estratégico por su población bilingüe y el turismo. También se amplía el acceso a servicios de música como Spotify, Amazon Music, Apple Music y Shazam, lo cual convierte las gafas en una especie de DJ personal. Todo esto se suma al uso de WhatsApp, Messenger y ahora Instagram, desde las mismas gafas.
Las gafas Ray-Ban Meta, desarrolladas en alianza con Luxottica, están disponibles desde 299 dólares y ofrecen funciones avanzadas de fotografía y video. Su cámara de 12 megapíxeles graba en resolución 1080p a 60 cuadros por segundo.
Tienen micrófonos direccionales, altavoces con sonido direccional que evitan filtraciones molestas y una batería que dura hasta 36 horas con su estuche. Vienen en nuevos modelos como el Skyler Shiny Chalky Gray con lentes Transitions, que se oscurecen al sol y se aclaran en interiores. También es posible añadirles lentes de prescripción. Con apenas 50 gramos de peso, estas gafas se sienten como unas normales, pero con superpoderes digitales. A diferencia de modelos como las Echo Frames de Amazon, las Meta ofrecen traducción sin conexión y un asistente visual integrado.
Las Ray-Ban Meta ahora traducen en tiempo real, reconocen objetos y reproducen música, todo desde tus gafas. Síguelas con atención y escucha más sobre estas tecnologías en el pódcast Flash Diario en Spotify: Flash Diario en Spotify
Las gafas Ray-Ban Meta ahora traducen idiomas sin conexión, reconocen objetos y reproducen música. El futuro está en tu cara.
Bibliografía
ZDNet Reuters Meta Newsroom The Verge
Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. - Visa fler