- W.A.I.
- Posts
- W.A.I. #28
W.A.I. #28
Crea juegos a partir de texto, ábrele la boca a un león y el Vaticano habla de la IA
Bienvenida/o a otra edición de WAI.
Comienza el verano pero eso no parece disminuir las noticias relacionadas con IA. Si la semana pasada hubo mayoría de novedades en la generación de imágenes, en esta yo diría que es el 3D quien ha ganado la partida.
Tenemos IA en Unity, creación de objetos 3D a partir de texto, Wonder Studio, generación de avatares a partir de una foto…en fin, unas cuantas y muy buenas novedades.
Pero, como siempre, hay muchas más cosas. Desde promesas de superar a GPT4, hasta una serie de adquisiciones de empresas de IA (parece que el dinero es infinito), pasando por renuncias en Stability.
Así que si quieres enterarte de estas y más historias, ya sabes, pasa que te lo he intentado poner todo a mano.
Empezamos.
🗻 TOP 10 - Si solo tienes 2 minutos, esta es tu sección.
▶️ El siguiente algoritmo de Deepmind eclipsará ChatGPT. O eso dice su CEO, Demis Hassabis.
▶️ Estudio de los sesgos en los modelos de generación de imágenes a partir de texto. Hay unos cuantos.
BREAKING: Wonder Studio is FINALLY open to everyone
It's been in closed beta since March, but now you can bring CG characters to life in any live-action scene
Here are 10 mind blowing examples:
h/t @WonderDynamics
— Min Choi (@minchoi)
6:50 PM • Jun 29, 2023
▶️ El lunes se publicó el código de DragGan, aquel editor de imágenes a base de arrastrar puntos que nos dejó a todos boquiabiertos. Lo probé un poco y aquí te dejo algún test para que veáis lo que puede hacer ahora mismo y un par de enlaces para que lo puedas probar.
▶️ Databricks adquiere MosaicML por 1.3B de dólares. Siguen cayendo los billetes del cielo para las empresas de IA.
▶️ Lista de los robots que atenderán la próxima semana a una reunión en la ONU. Parece de coña, pero es real. La semana que viene, si todo va bien, hablamos de ello.
▶️ Common Sense Machines anuncia el primer generador de modelos 3D a partir de imágenes que parece dar resultados decentes.
🐔 Tuit de la semana
▶️ Unity anunció sus primeras herramientas con IA: Muse y Sentis. Una para usar en el editor, como asistente de lenguaje natural, la otra para integrar redes neuronales en tiempo real.
Imagine more with Unity AI 🔮 Introducing:
⭐ #UnityMuse, a platform of AI capabilities for content creation, with Muse Chat for AI-based search now in closed beta
⭐ #UnitySentis for AI-powered experiences at Unity runtime, now in closed betaLearn more: on.unity.com/3NKrhFT
— Unity for Games (@unitygames)
11:12 AM • Jun 27, 2023
🏆️ Imagen de la semana
▶️ Video de El Señor de los Anillos generado combinando varias herramientas de Inteligencia Artificial. El nivel de calidad va subiendo cada vez más.
AI short film adapted from the Lord of the Rings!
take a week and finally spend about totally 24hours times to make it, hope this is a good start Technical and Model Support
Thank you to the great contributors mentioned in the subtitles!— DREX (@Drex1165890669)
12:57 PM • Jun 30, 2023
🖼️ Imágenes
▶️ Instalador con 1 clic de Stable Diffusion en local, con Automatic1111. Igual consigo vencer la pereza de instalármelo si es tan sencillo como dice.
▶️ DotCSV nos cuenta en su nuevo vídeo las novedades en cuestión de imagen y vídeo de estos últimos días. Muy recomendable, como siempre.
▶️ El modelo RealisticVision saca su versión 3.0. El nivel de realismo es tremendo.
▶️ Genera diferentes vistas a partir de una única imagen con MVDiffusion . Puedes crear imágenes panorámicas 360 de un entorno, por ejemplo. En el vídeo se ve muy claro.
▶️ Img2Prompt. Modelo que hace lo contrario que la mayoría: transforma una imagen en texto.
▶️ Glaze, la aplicación para evitar que tus imágenes se usen para entrenar modelos de difusión, ha publicado su versión 1.0.
▶️ Playground anuncia su nuevo editor de imágenes con IA, con un buen número de novedades.
▶️ En Midjourney ya se puede volver a ver el vídeo de cómo se genera tu imagen refinando el ruido. Parece una chorrada, pero es una función muy chula.
▶️ Primeros experimentos para transformar imágenes de Midjourney a NeRF.
Here's my first attempt at creating a NeRF of a @midjourney image in @LumaLabsAI But probably a completely different workflow. Curious to see how you do it on your phone.
— Mickmumpitz (@mickmumpitz)
11:11 AM • Jun 28, 2023
✏️ Texto
🧱 Diseño / 3D
▶️ Vuelve a no ser IA como tal, pero para mí sigue entrando dentro del terreno de la magia que se pueda generar un escenario así de manera procedural. Nueva demo de Unreal.
*Fé de erratas: la semana pasado dije que usaba Stable Diffusion y no, es un GAN. La confusión vino porque lo vi como extensión de Automatic1111 y por las prisas.
🎥 Vídeo
▶️ Y si prefieres en Colab, aquí hay uno con varios modelos para probar tanto text2video como img2video junto a una explicación de cómo hacerlo funcionar.
▶️ Experimento de lo que se puede hacer combinando, en este caso, Stable Diffusion y Blender. La portada del vídeo es, en fin, ya sabemos todos cómo va esto, pero el primer modelo que aparece en el vídeo es un señor mazas en calzones. Fuera del tema elegido, creo que el workflow es muy interesante.
▶️ Runway ahora permite ver una pequeña preview de las generaciones que vas a hacer con GEN-2. Facilita mucho la tarea de probar.
📻️ Todo lo demás
▶️ Humane anunció el nombre de su primer producto, AI Pin, pero no desveló muchos más detalles aparte de mostrar una imagen promocional. Recuerda que fue una de las charlas TED más sonadas y que en ella hicieron una demostración de cómo sería tener un asistente personal con IA sin necesidad de teléfono, ni gadgets.
▶️ Nueva versión de TTS publicada, el sintetizador de voz ahora trae a BARK, multi-idioma y clonación de voz.
▶️ Operar con robots suele tener un problema de latencia asociado. Pues bien, mira lo que han conseguido reducir en la empresa Quibo. Es flipante.
Qibo robot company are focusing on low-latency remote robots, which looks like a pretty transformative change vs most slower & laggier remotely-controlled bots (at least for boxing).
httpqibbot.comp
— Ben Ferns (@ben_ferns)
8:53 AM • Jun 26, 2023
▶️ Roop, el modelo de DeepFakes del que te he hablado alguna vez, se actualiza con diferentes mejoras.
▶️ WALDO v2 es un sistema de reconocimiento de imagen MUY potente.
▶️ Runway ha conseguido 141 millones de financiación, con Google, Nvidia y Salesforce aportando.
🎓️ Formación y tutoriales
▶️ Si no tienes instalado Stable Diffusion y piensas que es muy complicado hacerlo, este tutorial de Patricio Fernández te lo pone a huevo para que lo montes en Colab y empieces a disfrutar.
▶️ Nuevo curso de Deeplearning, en este caso sobre los fundamentos de los LLMs y su aplicación en el mundo real.
▶️ Explicación del concepto Machine Unlearning por parte de Jim Fan. Muy interesante.
▶️ Guía para hacer upscale cuando se utiliza Zeroscope, el modelo de text2video que tan buenos resultados está dando.
▶️ Tutorial de Midjourney a video, primeros flujos de trabajo experimentales.
📜 Papers, please.
🍅 Salseo
Despedida
Como siempre, muchísimas gracias por leer esta newsletter. ¿Qué te ha parecido?
Si tienes cualquier sugerencia o comentario, por favor, házmelo llegar (estoy por aquí en Twitter) y lo tendré en cuenta para futuras ediciones.
Y si crees que le puede interesar a alguien, aquí tienes la forma de compartirla.
También puedes copiar y compartir directamente este enlace
¡Saludos!