Avsnitt

  • SpaceX hace historia con Starship

    Comentamos el espectacular lanzamiento de SpaceX, que ha conseguido orbitar la tierra con su Starship. Estamos un paso más cerca de la luna.

    Hasta pronto!

  • 1X presenta su nuevo robot inteligente

    Os hablamos sobre el nuevo robot con IA que ha presentado 1X. Un robot capaz de aprender por sí sólo con un modelo neuronal end-to-end.

    Además os contamos las últimas novedades en OpenAI y de paso algo sobre tractores!

    Hasta pronto!

  • Saknas det avsnitt?

    Klicka här för att uppdatera flödet manuellt.

  • Apple: Cambios en Europa

    Os contamos los nuevos cambios que traerá iOS 17.4, o cómo Apple ha interpretado la DMA impuesta por Europa, lo cual no ha gustado a muchos…

    También os mostramos una nueva batería presentada por Betavolt, una empresa con sede en Pekín, que promete una duración de más de 50 años… sin necesidad de carga.

    ¡Que lo disfrutéis!

  • Rabbit, tu IA de bolsillo

    Es este episodio os hablamos de Rabbit un nuevo dispositivo que funciona con Inteligencia Artificial pretende colarse en tu bolsillo por tan sólo 200€ sin cuotas mensuales. Además os contamos cómo hackearon Orange España entrando hasta el panel de administración del proveedor de rutas europeo RIPE… de una forma curiosa.

    Por otro lado hablamos del lanzamiento de las Apple Vision Pro en los Estados Unidos.

    ¡Que lo disfrutéis!

  • Microsoft lo apuesta todo a la IA - iOS 17.3 protegerá aún más nuestros iPhone - Xiaomi lanzará un coche eléctrico

    En este episodio os contamos cómo Microsoft lo apuesta todo a la IA lanzando un nuevo teclado con un nuevo botón destinado a Copilot. También hablamos de la próxima actualización de iOS la cual añade una nueva funcionalidad para proteger nuestros dispositivos.

    Además os contamos sobre el futuro coche eléctrico de Xiaomi, el cual dará mucho que hablar.

    ¡Que lo disfrutéis!

  • ¿Nos engaña Google con su nueva IA?

    En este episodio os contamos la polémica con la presentación del nuevo proyecto Gemini de Google ya que parece ser que lo que han presentado no es exactamente lo que realmente puede hacer su modelo de IA.

    Además os hablamos sobre el Apple Watch Ultra 2, al cual finalmente Paco no se ha podido resistir, y sobre GTA VI entre otras cosas.

    ¡Que lo disfrutéis!

  • OpenHaystack, AirTags para todos

    Hoy os hablamos sobre OpenHaystack, un proyecto de código abierto realizado por la universidad TU Darmstadt a partir de ingenieria inversa del protocolo de los AirTag. Nos permite poder crear nuestros propios AirTags y que funcionen dentro de la red FindMy de Apple. Además, jugando con el proyecto, he realizado un nuevo firmware de muy bajo consumo que funciona con los chips nrf52 de Nordic.

    Aquí os dejo los enlaces del proyecto y del firmware de bajo consumo:

    Proyecto OpenHaystack: https://github.com/seemoo-lab/openhaystack Firmware modificado de muy bajo consumo: https://github.com/acalatrava/openhaystack-firmware Firmware más avanzado que permite incluso actualización DFU: https://github.com/spaceinvadertech/openhaystack_moko

    Y aquí podéis encontrar un “clon” chino compatible con la red FindMy de Apple de forma oficial que cuestan apenas 5€:

    Aiyato Global Tracker

    ¡Un saludo!

  • Sam Altman es despedido… ¿y readmitido?

    Este fin de semana OpenAI se ha levantado de resaca. El viernes a mediodía despedían a Sam Altman sin previo aviso… ¿pero parece ser que apenas 48 horas más tarde se han arrepentido?

    El nuevo dispositivo AI Pin quiere ser lo que le siga al smartphone

    Humane ha presentado su nuevo AI Pin, un dispositivo móvil que no se parece a nada de lo que hayas visto antes… para bien y para mal. Está cargado de inteligencia artificial y pretende remplazar de alguna forma al smartphone.

    Elon Musk consigue un nuevo hito en el lanzamiento de Starship

    El último lanzamiento de Starship ha sido un éxito consiguiendo nuevos hitos. El avance de la misión va estupendamente.

    Te lo contamos todo en este nuevo episodio, ¡Que lo disfrutes!

  • Copias de seguridad

    En el episodio de hoy hablamos sobre copias de seguridad y sobre cómo confiar sólo en la nube, ya sea iCloud o cualquier otra, no es una buena idea. Descubriremos por qué la búsqueda de un sistema de backup le ha llevado a Antonio a suscribirse a una plataforma de videojuegos y explicamos cómo utilizar el servicio Backblaze para realizar copias de seguridad de nuestro equipo.

    También comentamos cómo Antonio ha utilizado una herramienta de código abierto llamada iCloud Photo Downloader para descargar toda su librería de fotos de iCloud a un disco duro local.

    ¡Que lo disfrutes!

  • Charlando sobre iPhone 15, Macbook Air, financiación, OpenAI, Bing, Meta Quest y más

    En el episodio de hoy hablamos de forma distendida sobre varias cosas como el iPhone 15 o el Macbook Air de los cuales Paco es nuevo poseedor (aún en parte). Además hablamos sobre TinyLlama, un nuevo LLM “pequeño” de tan sólo 1.1 billones de parámetros.

    También os contamos lo nuevo de OpenAI que ahora puede oír, hablar y ver y de cómo podemos utilizarlo gratis gracias a Bing.

    Meta ha presentado las nuevas Quest 3 y han hecho un vídeo en el nos muestran cómo las podemos utilizar para entrar en una videoconferencia con un avatar fotorrealista. Muy interesante, la verdad.

    ¡Hasta la próxima semana!

  • Open Interpreter: Hablando con tu ordenador

    La inteligencia artificial sigue imparable. Hoy vamos a hablar de un nuevo proyecto de código abierto llamado Open Interpreter el cual nos permite “hablar” con nuestro ordenador.

    Open Interpreter es la respuesta de código abierto al plugin “Code Interpreter” que sacó en la versión plus de ChatGPT. Este plugin permite la creación y ejecución de código en base a una petición, o prompt. Entre otras cosas te permite resolución de problemas matemáticos, análisis y visualización de datos, convertir ficheros a diferentes formatos, y cosas así. No obstante tiene ciertas limitaciones como que opera sin acceso a internet, tiene un set de paquetes previamente instalados limitado, tiene un límite de 2 minutos de ejecución y el estado es eliminado después de la ejecución.

    Open Interpreter viene a mejorar todo esto, dando acceso completo a tu PC o Mac de forma que pueda ejecutar código diréctamente en tu equipo y con acceso a internet, eliminando todos esos límites impuestos por ChatGPT. Además, al ser un proyecto open source, puede operar totalmente en local utilizando un LLM que también se ejecute en local. Aunque si queremos que tenga mucha más potencia y conocimiento lo ideal es que utilicemos GPT4. No obstante en este caso estaremos enviando todo lo que hacemos a OpenAI y esto puede suponer un problema de privacidad.

    Aquí os vamos a explicar cómo ponerlo en marcha totalmente en local, sin tener que utilizar GPT4. Para ello utilizaremos CodeLlama, un LLM desarrollado por Meta, especializado en programación, que se ejecuta en local y con una licencia bastante abierta.

    Puesta en marcha

    Lo primero que tenemos que realizar es crearnos un entorno de ejecución con Conda. Si bien este paso no es esencial, es muy recomendable. Conda es un gestor de entornos de ejecución de forma que nos crea entornos independientes para cada proyecto. Esto está muy bien ya que muchas veces los proyectos necesitan de versiones específicas de ciertos paquetes o librerías. Para ello Conda crea un entorno de ejecución para cada proyecto aislado de los demas. Si bien aquí no vamos a tratar la instalación de Conda, es algo muy sencillo de realizar haciéndo una búsqueda en internet.

    Una vez tengamos conda instalado crearemos un entorno para el proyecto:

    $ conda create python=3.11 open-interpreter $ conda activate open-interpreter

    El siguiente paso es simplemente instalar open-interpreter con pip:

    $ pip install open-interpreter

    Y ya está! Simplemente con esto ya tenemos Open Interpreter instalado. Ahora simplemente tenemos que ejecutar

    $ interpreter

    y seguir los pasos que nos va pidiendo.

    GPT4 o CodeLlama

    Lo primero que nos pedirá es la clave de API de OpenAI para utilizar GPT4 como motor LLM. Esto es lo más rápido y efectivo puesto que GPT4 es el LLM más potente y capaz hasta la fecha. No obstante tiene ciertas desventajas:

    No es gratis Todos tus comandos y respuestas serán enviados a OpenAI para procesarlosComo alternativa podemos usar CodeLlama. Un LLM desarrollado por Meta que podemos ejecutar en local. CodeLlama viene en 3 sabores: 7B, 11B y 34B. Cada número se refiere a los billones de parámetros que tiene el modelo. Como suele ser en estas cosas, cuanto más, mejor. Pero cuanto más, más RAM y potencia de cálculo necesitarás.

    He hecho pruebas con el más potente (34B aunque muy comprimido) y con GPT4 y claramente GPT4 es mucho más potente y capaz. Aunque en la petición que le hice (generar un fichero excel a partir de un listado de películas en un PDF) no fue capaz de conseguir el objetivo final.

    OpenCore Legacy Patcher

    Paco nos ha comentado cómo ha sido posible actualizar su Macbook Pro Retina de 2014 a la última versión de MacOS gracias a OpenCore Legacy Patcher, un proyecto open source que nos permite crear un instalador de MacOS que engaña al sistema operativo haciéndole creer que se está ejecutando en un hardware soportado.

    Dependiendo del hardware que tengamos algos OS serán soportados y otros no. Sin embargo si tu equipo es de 2013 o supuerior suele poder soportar los últimos MacOS hasta la fecha. Quizá haya algunas funcionalidades que no estén disponibles pero generalmente funciona francamente bien.

    ¡Hasta la próxima semana!

  • Hubble Network: Revolucionando la comunicación de dispositivos IoT desde el espacio

    Hoy vamos a hablar de Hubble Network, una compañía que pretende revolucionar la forma en la que se comunican muchos de nuestros dispositivos, especialmente aquellos relacionados con el Internet de las Cosas (IoT). Estos dispositivos suelen enfrentar un problema importante: la comunicación con Internet, la cual requiere de sistemas costosos en términos de batería y tamaño.

    El desafío de la comunicación en dispositivos IoT

    Imaginemos dispositivos ubicados en un campo, encargados de monitorear animales o condiciones específicas. Para enviar esta información periódicamente a Internet, se requiere de un sistema de comunicación que, en la mayoría de los casos, resulta costoso en términos de batería y cobertura. Por ejemplo, si utilizáramos un modem GSM o LTE, similar a un teléfono móvil, nos enfrentaríamos a dos problemas principales: el consumo de batería y la cobertura en zonas rurales remotas, donde la señal puede ser escasa o inexistente.

    Existen otros sistemas más eficientes energéticamente, como SIGFOX o LORAWAN, pero su despliegue depende de la presencia de repetidores de estos protocolos en las cercanías. En algunas zonas, puede que estos repetidores no estén disponibles.

    La revolución de Hubble Network

    Es aquí donde Hubble Network busca revolucionar estos sistemas de comunicación de una forma sencilla y eficiente. Esta empresa tiene como objetivo llevar los dispositivos BLE (Bluetooth Low Energy) al espacio. Si estás escuchando este podcast con unos AirPods u otros auriculares inalámbricos, es muy probable que estés utilizando la tecnología BLE, la cual permite una conexión fácil entre estos dispositivos y nuestros móviles.

    Hubble Network ha desarrollado un satélite con miles de antenas modificadas para capturar las señales de los dispositivos BLE que, con un firmware específico, transmiten desde la Tierra. Esta capacidad es impresionante, ya que elimina la necesidad de utilizar chips o módems especiales como SIGFOX o LORAWAN. La mayoría de los dispositivos de IoT ya cuentan con un chip BLE, y si no lo tienen, su incorporación resulta increíblemente económica y eficiente.

    Por ejemplo, en un proyecto en el que he estado trabajando, se utilizó un sistema similar con un chip BLE de Nordic Semi, capaz de funcionar durante 2 años con una simple pila de botón. Un ejemplo conocido de este sistema es el AirTag de Apple, cuya autonomía también es muy alta.

    La constelación de satélites de Hubble Network

    Hubble Network planea poner en órbita baja una constelación de satélites que capturarán la información enviada por dispositivos Bluetooth. La empresa ha conseguido una inversión de 20 millones de dólares, lo cual le permitirá lanzar su primer satélite en enero de 2024, gracias a SpaceX, y comenzar a operar su red.

    Durante los primeros meses, con un único satélite en órbita, se espera que la captura de datos de los dispositivos ocurra cada 6 horas, el tiempo que tardará en dar una vuelta completa alrededor de nuestro planeta. A pesar de las limitaciones iniciales, esto es un logro impresionante para el inicio de esta ambiciosa empresa. Seguiremos de cerca los avances de Hubble Network y os mantendremos informados sobre su desarrollo.

    Si tengo la oportunidad de obtener el kit de desarrollo de esta tecnología, lo utilizaré para explorar su funcionamiento. Tengo muchas ganas de presenciar cómo Hubble Network está transformando la forma en que se comunican los dispositivos IoT desde el espacio.

  • La visión de Apple

    Todos los rumores que hubo previos al lanzamiento de las esperadas gafas de Apple se han cumplido. El pasado lunes 5 de Junio Apple puso sobre la mesa su nueva visión del futuro con un modelo de gafas que parece traído directamente de una película de ciencia ficción.

    Y es que las nuevas gafas de Apple definen el futuro de la computación, o como ellos lo han llamado, la computación espacial. Un futuro en el que la pantalla no nos limitará en la interacción sino que podremos ampliarla o reducirla a nuestro antojo. O poner 3 pantallas si queremos.

    Finalmente todas las especificaciones filtradas se cumplieron y tenemos unas gafas que tinen una pantalla superior a 4K en cada ojo con una densidad de píxeles superior a los 4000ppp, un procesador M2 junto a un coprocesador R1 que se encarga de la gestión de todos los sensores, que no son pocos. 12 cámaras, 6 micrófonos, seguimiento ocular y seguimiento de manos.

    Estas gafas nos permiten crear un entorno virtual junto a nuestro entorno físico e interactuar con el mismo. Para ello no utilizamos controles externos sino que simplemente utilizamos nuestra vista y nuestras manos. Miramos lo que queremos seleccionar y pellizcamos con los dedos.

    También tiene una corona digital con la cual controlaremos el nivel de inmersión en el sistema pudiendo ocultar por completo nuestro entorno real.

    Además tiene una pantalla exterior en 3D que permite ver una recreación simulada de nuestros ojos de forma que da la sensación de que las gafas son transparentes.

    La integración con el ecosistema es espectacular de forma que podemos “sacar” la pantalla de un Macbook y representarla en el espacio.

    Lo malo es el precio, a partir de 3500$ más impuestos y sólo se pondrá a la venta en USA a partir del año que viene.

    Tenemos muchas ganas de probarlas y veremos si somos capaces con hacernos con unas.

    ¡Un saludo y hasta la próxima semana!

  • Según esta filtración, las gafas de Apple tendían unas especificaciones loquísimas

    Y otro rumor más… por si teníamos pocos, este último te dejará con la boca abierta (o más bien con los ojos abiertos) ya que se han filtrado las especificaciones de lo que serán las gafas de Apple y no tienen competencia… Serían estas:

    Pantalla Micro-OLED de 1,41 pulgadas para cada ojo Resolución 4K en cada ojo Densidad de píxeles de 4000 ppi (puntos por pulgada) Más de 5000 nits de brillo ProMotion display hasta 120hz de refresco

    En comparación las PlayStation VR2 tienen unas pantallas de 2000x2400 pixeles (frente a 3840x2160 del 4K) y una densidad de píxeles de 850ppi…

    Así se explica que hubiera otro rumor que situaba su precio en unos 3000$…

    Fuente: https://www.macworld.com/article/1935837/apple-reality-headset-display-leak-resolution-brightness.html?utm_source=tldrnewsletter

    Por cierto que el lunes a partir de las 18:45 hora española daremos cobertura en directo al evento de Apple.Suscríbete a nuestro canal de YouTube para verlo en directo: https://www.youtube.com/live/sKn2Xcvt0Lo?feature=shareaaImageBind un embedding para enlazarlos a todos

    Meta sigue dándonos muchas alegrías ya que ha presentado un nuevo modelo de IA que pretende enlazar múltiples y diversos fuentes de datos como:

    Audio Texto Imagen Datos de profundidad Datos de aceleración Mapas de calor

    Este nuevo modelo multimodal crea unos embeddings que interrelacionan todos los datos aunque sean de diferente tipo. De este modo se le puede pasar un audio de un perro ladrando y encontrar imágenes de perros por ejemplo. Esto abre un nuevo campo en la IA ya que enlazándolo con los grandes modelos de lenguaje LLM nos permitrá una interacción multimodal tremenda.

    Además, es de código abierto. Meta nos está sorprendiendo mucho en este campo y dejando atrás esa mala imagen que Facebook consiguió.

    https://imagebind.metademolab.com

    Mitigar el riesgo de extinción humana por IA debería ser una prioridad global

    Esto es lo que han dicho algunas figuras relevantes en el campo de la IA como los ganadores del premio Turing Geoffery Hinton y Yoshua Bengio así como el CEO de OpenAI Sam Altman, y otros ejecutivos de OpenAI como Ilya Sutskever y Mira Murati. Además también lo suscriben el CEO de DeepMind Demis Hassabis o el CEO de Anthropic Dario Amodei, y profesores de la UC Berkely, Stanford y MIT.

    Esta vez no han escrito una carta abierta como sucedió en el pasado mes de marzo, sino que simplemente han dicho lo siguiente:

    “Mitigar el riesgo de extinción por la IA debería ser una prioridad global junto con otros riesgos a escala social como las pandemias o las guerras nucleares.”

    Más información: https://www.safe.ai/press-release

    ¡Hasta la próxima semana!

  • Tree of thoughts: Deliberate problem solving with Large Language Models

    https://arxiv.org/pdf/2305.10601.pdf

    Esta pasada semana se ha publicado un paper llamado “Tree of thoughts: Deliberate problem solving with Large Language Models” que sería algo como “Pensamiento arborescente: Solución de problemas con modelos grandes de lenguaje”. En este paper se explican los métodos más habituales en los que se usan los LLM como ChatGPT y se propone un nuevo método el cual mejora sustancialmente los métodos actuales.

    Hasta ahora básicamente se usan 3 métodos:

    Input-Output prompting: El cual consiste básicamente en hacer una pregunta para llegar a una respuesta. Sería lo que hacemos habitualmente con ChatGPT. Chain of thought prompting: Consiste en separar la pregunta en los pasos necesarios para llegar a una respuesta, de esta manera la respuesta siempre es más efectiva. Se utiliza en algunos proyectos como BabyAGI o AutoGPT. Self consistency with CoT: Que sería básicamente lo mismo que CoT pero haciendo la pregunta y elaborando los pasos varias veces de forma que nos quedaremos con la respuesta final que más se repita.

    Y el paper propone un nuevo método al que llama Tree of Thoughts o Árbol de pensamientos el cual consiste en, resumiéndolo mucho, en pedir al LLM que elabore varios planes para la resolución de un problema. Luego se le pide 5 veces que vote cuál es el mejor plan para resolver el problema planteado. Una vez hecho se le vuelve a pedir que elabore varios planes para resolver el problema basándose en los planes más votados y se vuelve a establecer un sistema de votaciones para esos planes generados. De esta manera se van creando unas ramas de pensamiento y las más votadas se van siguiendo. Es posible que alguna no llegue a buen puerto y se descarte esa rama por completo volviendo a una rama anterior.

    Este nuevo método parece muy efectivo y es muy prometedor. En las pruebas que han realizado han conseguido unos resultados excelentes. Por ejemplo en la resolución de crucigramas, los métodos clásicos como IO o CoT solo conseguían resolver 1 de cada 100 en el mejor de los casos mientras que ToT ha conseguido resolver 20 de cada 100. E incluso es más impresionante en el juego de 24 en el cual los métodos tradicionales conseguían un 9% de éxito mientras que ToT consigue un 74% de soluciones correctas.

    Ya ha salido una implementación en Python para que se pueda probar y trastear con ello:https://github.com/kyegomez/tree-of-thoughts

    Drag your GAN: Interactive Point-based Manipulation on the Generative Image Manifold

    https://vcai.mpi-inf.mpg.de/projects/DragGAN/

    Este paper que se podría traducir como “Arrastra tu GAN, Manipulación interactiva basada en puntos de la variedad de imágenes generativas

    Mandos de videojuego accesibles

    Hoy os traemos unos cuantos mandos económicos para poder disfrutar de nuestros juegos sin que nos escueza el bolsillo.

    En concreto son estos modelos: - Microsoft Xbox original (XBOX y PC) - Nacon - Compact Mando (PS4 y PC) - G-Lab K-Pad Thorium Mando Gaming (PS3 y PC) - Diswoe Mando Xbox 360 (PC) - PowerA (Xbox Series X|S Y PC)

    Recomendacion

    Desde mi punto de vista eligiria de todos ellos el mando POWER A por su calidad de acabado, precio y ergonomia a la hora de jugar ya que es practicamente lo mismo que el de xbox original pero con cable. Eso lo hace mas ligero pero con el incoveniente de tenerlo que tener conectado por cable.

    ¡Hasta la próxima semana!

  • Habla con tus documentos

    Esta semana os explicamos cómo hablar con vuestros documentos. Para ello hacemos uso de diferentes herramientas como ChatPDF o PrivateGPT.

    El modo como funcionan estas herramientas se divide en 3 partes:

    Extracción de textoEl primer paso es extraer todo el texto del documento y categorizarlo con metadatos como número de página, autor, etc.

    Extraer embeddings del textoEste paso utiliza un modelo que analiza semánticamente el texto y lo convierte a vectores de forma que puede ser indexado en una base de datos vectorial como Pinecone o similar.

    “Conversar” con el documentoEste último paso realiza el paso anterior por cada consulta que le realicemos. Es decir, genera embeddings de la consulta que queremos hacer para luego poder hacer una búsqueda en la base de datos de forma que encontrará los textos que se acerquen más de forma semántica a la consulta para utilizarlos como contexto o referencia en la consulta final.

    ChatPDF

    ChatPDF es una herramienta online que utiliza por detrás los modelos de lenguaje de OpenAI como ChatGPT para las consultas o ADA para los embeddings. Es un servicio gratuito con limitaciones de hasta 120 páginas por documento o 3 documentos por día. Es muy sencilla de utilizar pero como inconveniente tiene que todo es procesdo online de forma que, si trabajamos con documentos sensibles o confidenciales, no deberíamos utilizarla.

    PrivateGPT

    Por el contrario el proyecto PrivateGPT utiliza un modelo de lenguaje de código abierto que se ejecuta en local, directamente en tu CPU. Esto tiene la gran ventaja de que podemos trabajar con documentos confidenciales pero como contrapartida es mucho más lento, dependiendo en gran medida de la potencia de la CPU.

    Como ejemplo os hemos puesto un Google Colab para que podáis probarlo aunque os adelantamos que es especialmente lento al usar sólo la CPU…

    Amazfit GTR 4 y GTS 4Acerca de estos relojes

    Dos relojes muy similares por dentro pero muy diferentes por fuera.El Amazfit GTR 4 cuenta con una pantalla HD amoled de 1.43 pulgadas con una resolucion de 466x466 Pixeles. Cuenta además con una batería que prometen durar unos 15 días. Con sensores para deporte con 150 modos de entrenamiento, control del sueño etc. Una opcion muy buena para el dia a dia y con un tamaño y forma muy deportivo

    Por otro lado, el Amazfit GTS 4, al contrario que su hermano, es rectangular(el gtr es redondo) y es la mayor diferencia que podemos encontrar en el dado que sus sensores son iguales. El peso tambien al ser mas pequeño es menor, la bateria pasa lo mismo pero no por ello malo ni mucho menos.

    Cuenta con una pantalla de 1.75 pulgadas, comentamos en directo que la pantalla del gtr 4 era mas grande pero como dicen los datos lo dijimos mal.

    En ambos casos hay que usar la aplicacion de Amazfit para poder usar las funcionalidades del mismo con nuestro telefono movil.Dos opciones de relojes muy recomentadables y mucho mas asequible que otras marcas y desde luego para el dia a dia no dudaria en comprarmelo

    Ventajas- Bateria- Pantalla- PrecioDesventajas- No cuenta con NFC- Fácil de rallar- Aplicacion de terceros

    ¡Hasta la próxima semana!

  • Cómo esconder mensajes secretos a plena vista

    Esta semana os vamos a hablar de la esteganografía, el arte de esconder mensajes a plena vista. Imagina que quieres enviar un mensaje secreto a tu mejor amigo, pero no quieres que tus hermanos o compañeros de clase lo lean. Entonces, en lugar de escribir el mensaje en un papel y ponerlo en un sobre, decides esconderlo dentro de un dibujo o una foto para que nadie sospeche que hay algo más. Eso es la esteganografía: esconder un mensaje dentro de otra cosa para que nadie se dé cuenta de que está ahí.

    Etimología

    La palabra “esteganografía” proviene de dos palabras griegas: “steganos” (στεγανός) y “graphein” (γράφειν). “Steganos” significa “cubierto” o “escondido”, mientras que “graphein” significa “escribir” o “dibujar”. Por lo tanto, la etimología de “esteganografía” se traduce aproximadamente como “escritura escondida” o “escritura encubierta”, lo que refleja la idea de ocultar mensajes secretos dentro de otros medios, como imágenes, textos o archivos de audio.

    Tipos de esteganografía

    Hay diferentes tipos de esteganografía, dependiendo de en qué escondes el mensaje:

    Esteganografía en imágenes: Escondes el mensaje dentro de una foto o un dibujo, cambiando un poquito los colores o los detalles de la imagen.

    Esteganografía en audio: Puedes esconder el mensaje dentro de una grabación de música o sonido, cambiando un poquito las ondas de sonido.

    Esteganografía en texto: Aquí, escondes el mensaje dentro de un texto, utilizando letras o palabras extrañas, o cambiando el tamaño y el color de las letras.

    Esteganografía en redes: En este caso, escondes el mensaje en la forma en que se envían los datos por internet u otras redes, para que no se pueda saber qué información se está compartiendo.

    Historia

    La esteganografía se ha utilizado desde hace mucho tiempo. La primera vez que se tiene constancia de su uso fue en la antigua Grecia, alrededor del año 440 a.C. Un famoso general griego llamado Histiaeus quería enviar un mensaje secreto a uno de sus aliados. Entonces, afeitó la cabeza de uno de sus mensajeros, escribió el mensaje en su cuero cabelludo y esperó a que el cabello volviera a crecer. Cuando el cabello del mensajero creció lo suficiente para cubrir el mensaje, lo envió a entregar el mensaje secreto. Al llegar a su destino, el aliado volvió a afeitar la cabeza del mensajero y pudo leer el mensaje oculto.

    Tutorial: esconde un mensaje en una imagen JPEG

    Para este tutorial vamos a hacer uso de un cuaderno que hemos creado de una forma sencilla.

    Ocultar mensaje: Esteganografía en JPG ocultar mensaje Revelar mensaje: Esteganografía en JPG revelar mensajeLegion Pro 7i Gen 8: El ordenador ideal para gamers exigentes

    El Legion Pro 7i Gen 8 es un ordenador diseñado específicamente para disfrutar de tus videojuegos favoritos. Con una pantalla de excelente calidad y una tarjeta gráfica de última generación, podrás jugar a cualquier juego con una calidad altísima. La única desventaja es su batería, que puede durar menos de una hora, por lo que es recomendable tenerlo siempre conectado a la corriente para que la GPU funcione a pleno rendimiento. Además, cuenta con un teclado retroiluminado RGB que permite multitud de combinaciones. En definitiva, una elección TOP para juegos que durará muchos años gracias a sus 32 GB de RAM, 1 TB de disco SSD y 12 GB de gráfica RTX 4070. Debido a que está pensado para rendimiento, su tamaño y peso son amplios para garantizar una buena refrigeración y evitar que los componentes sufran en exceso. Sin duda, Lenovo está haciendo un trabajo estupendo con esta gama Legion.

    Ventajas Pantalla de 16” a 240 Hz que ofrece una experiencia de juego incomparable. Tarjeta gráfica de última generación RTX 4070 de 12 GB que permite jugar a cualquier juego con una calidad altísima. Procesador Intel i9 para una mayor rapidez y eficiencia.Desventajas Batería de poca duración, por lo que es recomendable tenerlo conectado a la corriente para poder jugar sin problemas. Tamaño y peso elevados debido a su diseño enfocado en la refrigeración. Precio elevado, aunque su calidad lo convierte en una inversión a largo plazo para los gamers más exigentes.

    ¡Hasta la próxima semana!

  • Cómo generar imágenes geniales con IA

    Si ya hemos visto cómo generar audio con IA y cómo hablar con un modelo de lenguaje, esta semana os traemos cómo generar imágenes con IA. Hablaremos de Dall-E, una herramienta de OpenAI y una de las primeras en la generación de imágenes. También probaremos Stable Difussion y BlueWillow para comparar cómo generan imágenes cada una de ellas.

    Después hablamos sobre un nuevo proyecto de código abierto que ha irrumpido en escena llamado IF de DeepFloyd el cual ha sido el primero en ser capaz de generar imágenes en las cuales podemos pedir que añada un texto y éste aparecerá en la imagen de forma correcta. Hasta ahora las imágenes generadas en otras herramientas eran incapaces de generar el texto de forma coherente.

    Star Wars Jedi: Survivor

    Os traemos un nuevo juego de acción y aventuras en tercera persona desarrollado por Respawn Entertainment y publicado por Electronic Arts. El juego se lanzó el 26 de abril de 2023 para PlayStation 5, Xbox Series X/S y PC. El juego sigue la historia de Cal Kestis, un joven Padawan Jedi que sobrevivió a la Orden 66 y ahora vive como un fugitivo en la galaxia. El juego ha recibido críticas positivas por su jugabilidad, historia y gráficos. IGN le dio al juego una puntuación de 9/10, mientras que PC Gamer le dio una puntuación de 8/10. The Guardian le dio al juego una puntuación perfecta de 5 estrellas. Sin embargo, el juego también ha sido criticado por sus problemas técnicos y problemas de velocidad de fotogramas.

    ¡Hasta la próxima semana!

  • Olvídate del backend con AppWrite

    Hoy hablamos sobre AppWrite, un proyecto de código abierto para crear tu backend de una forma fácil y rápida. Puedes instalar AppWrite en tu servidor utilizando docker o directamente utilizando AppWrite Cloud y de esta forma no tener que preocuparte de absolutamente nada.

    Puedes integrar AppWrite con cualquier plataforma con sus SDKs para cualquier lenguaje de programación o framework como Flutter, iOS, Android, JS, etc.

    Unrecord Videojuego con Unreal Engine 5

    Unrecord será uno de los primeros juegos en utilizar el nuevo motor de imagen Unreal Engine 5. Promete ser mucho mas realista (cosa que veremos) y mucho más espectacular en cuanto a imagen. Nos pondremos en la piel de un policía visto desde la camara que llevan en el hombro como si de una gopro se tratara. Sin duda una vista algo inusual para un juego de disparos pero que desde luego le da una sensación de realismo brutal.

    Actualmente está en desarrollo y en principio solo saldrá para PC. Podéis seguirlo en Steam o en su Discord. Además podéis ver un vídeo de demostración en YouTube.

    ¡Hasta la próxima semana!

  • Clona tu propia voz… o la de tu vecino

    La inteligencia artificial no para. La semana pasada hablábamos de cómo Alltta había creado una canción utilizando por inteligencia artificial con la voz de Jay-Z y esta semana os traemos un proyecto de código abierto llamado SoftVC VITS con el que podrás hacerlo tú mismo. Este proyecto en concreto es un fork del proyecto original el cual nos permite hacer incluso inferencia en tiempo real. Además alguien ha creado unos cuantos modelos de voces que podemos descargar libremente con voces como la de Lady Gaga, Billie Joe o David Bowie.

    Patrocinado por Qoodiht, tus fundas sostenibles

    El episodio de hoy está patrocinado por Qoodiht, unas nuevas fundas ecológicas para tu iPhone, fabricadas en España con un material ecológico y sostenible. Llevo un par de semanas utilizando la funda modelo GEA y estoy gratamente sorprendido. Tan sólo cuestan 7,95€ y están disponibles en color blanco y verde fluor. Además tienen una funda, el modelo Apolo, que brilla en la oscuridad.

    ¿Puedo clonar la voz de cualquier persona? ¿Qué dice la ley al respecto?

    Hablamos con Javier Maestre, un abogado experto en nuevas tecnologías que nos cuenta qué dice la ley al respecto de utilizar la voz creada por la IA.

    ¿Qué son las GAN o Redes Generativas Adversarias?

    Una GAN (Generative Adversarial Network o red generativa antagónica en Español) fue creada por Ian Goodfellow en 2017. Son un tipo de inteligencia artificial que se utiliza para crear cosas nuevas, como imágenes o sonidos, imitando ejemplos existentes. Imagina que es como un artista y un crítico que trabajan juntos: el artista crea una obra y el crítico la evalúa. En una GAN, hay dos partes: el generador, que es como el artista, y el discriminador, que es como el crítico. El generador crea imágenes (u otros tipos de datos) y el discriminador evalúa si son reales (parecidas a los ejemplos existentes) o falsas (hechas por el generador). Ambos van aprendiendo y mejorando en su trabajo a medida que se entrenan, lo que hace que la GAN sea cada vez más efectiva para crear cosas que parezcan reales.Se utilizaron para deepfakes

    Para la música… o la voz

    Lo más interesante de este proyecto es que, si bien está pensado para cambiar la voz en canciones, se puede utilizar de la misma manera para el habla, de forma que tu voz sea cambiada por ejemplo… por la de tu jefe, o por la de tu vecino. Yo mismo he creado un modelo de la voz de Paco en apenas unas horas y con un coste de… 0€. Totalmente gratuito utilizando la plataforma de Google Colab.

    Cómo clonar tu voz

    Para poder realizar el modelo de una voz es necesario tener unos cuantos minutos de la voz que queremos clonar de forma clara. Si por ejemplo queremos clonar nuestra propia voz, es suficiente con grabarnos hablar durante unos 10 o 15 minutos. Si queremos clonar una voz de una canción será necesario eliminar la música de fondo antes de utilizarla.

    Una vez obtenida la voz es necesario trocearla en diferentes samples de unos 10 segundos o menos de duración. En mi caso he utilizado mi voz del último podcast y la he troceado de forma automática utilizando un script en python que automáticamente busca los silencios y lo separa.

    Después no tiene mayor misterio más que seguir este cuaderno que os hemos creado para que, en unos sencillos pasos, podamos crear nuestro propio modelo de voz. Una vez generado podemos utilizar este otro para cambiar nuestra voz por la de nuestro modelo.

    ¡Hasta la próxima semana!