«Inteligencia artificial (IA) a través de las personas, para las personas. Diseño e implementación de respuestas de inteligencia colectiva y tecnología aumentada. (. . . ) Somos una corporación de desarrolladores que se preocupa profundamente por las implicaciones y aplicaciones del mundo real. No somos miedo a pasar opuesto a las normas establecidas y explorar la creatividad. Con esta intención inteligente intencionada, Stability AI (stability. ai) se presenta en su sitio web, que combina un vasto laboratorio de alpassrithms de vanguardia en otros campos, como imagen, lenguaje , audio, video, 3-d y biología.
La noticia es que en la tercera semana del nuevo año, la empresa este gigante de la progresión del software y otras dos empresas que ofrecen el uso de esta generación fueron demandadas por mal uso de símbolos con derechos de autor. Una, en los Estados Unidos, trata de 3 artistas: las estadounidenses Sarah Andersen y Kelly McKernan, y Karla Ortiz de Puerto Rico. La otra en Gran Bretaña, presentada a través del banco de símbolos de Getty Images. La primera incluye las plataformas Stable Diffusion (stablediffusionweb. com), perteneciente a Stability AI, Midjourney (midjourney . com) y DreamUp (dreamup. com). Mientras que Getty Images se opone a la madre del problema: la estabilidad de la IA.
Pero, ¿qué hacen con las imágenes?¿Los estará ofreciendo en su sitio web?¿Los utilizará en exposiciones o publicaciones? No es raro que académicos de dudoso prestigio utilicen la palabra «es más complejo» para explicar algo. Ya que ni este columnista ni los lectores de PERFIL conformarse con eufemismos para evadir el conocimiento, vamos a revisar para ubicar las razones de este caso emblemático de la cultura.
«Stable Diffusion (propiedad de Stability AI) copias no autorizadas de millones de imágenes con derechos de autor.
Copias realizadas sin el consentimiento de los artistas. Asumiendo daños nominales de US$1 consistentes con el símbolo, el precio de estos créditos sería de aproximadamente US$5 mil millones. (En comparación, el robo de arte más grande de la historia en 1990, trece obras de arte del Museo Gardner, ahora cuestan $500 millones). Así explica el abogado Matthew Butterick el tamaño económico en su blog stablediffusionlitigation. com. También explica cómo funciona esta fórmula para suministrar un símbolo (foto, dibujo, pintura, ilustración 3D) basado en palabras clave. Por ejemplo, si hacemos una escala en las páginas de internet comentadas, bastará con escribir «caballo en la montaña» en el dominio check de la misma, y al cabo de unos segundos aparecerán 4 símbolos de caballos de otros estilos.
Esto no es un milagro de software. La inteligencia artificial utiliza el aprendizaje y, con él, la reminiscencia acumulativa para percibir las características únicas de las fotografías. Una forma es la «difusión», un procedimiento matemático que las tiendas minoristas comprimen copias de fotografías que se leen como entrenamiento. La difusión es una compresión de ida y vuelta, a la que se agregó un «ruido» aleatorio.
En 2020, los investigadores de UC Berkeley avanzaron en esta técnica. Demostraron cómo la transmisión puede simplemente comprar fotografías en un formato más comprimido sin afectar su habilidad para reconstruir copias de alta fidelidad. Estas se llaman fotografías latentes, que también se pueden combinar para producir otras nuevas. La dispersión estable convierte las fotografías educativas en fotografías latentes mediante un codificador variacional automático (o VAE), de modo que se modelen como problemas en un área multidimensional denominada área latente.
Los Berkeley también implementaron la idea de administrar la difusión con un estilo de IA llamado U-Net, inventado por investigadores biomédicos en Alemania en 2015. En 2022, los investigadores en Munich dieron un paso más: descubrieron cómo configurar el proceso de eliminación. ruido con información adicional. Este procedimiento se llama condicionamiento. La herramienta para esto se compone de breves descripciones de texto, también llamadas trucos, que describen los elementos de la imagen.
Pero esta interfaz crea una capa de paso «mágica» que dificulta obtener copias aparentes de fotografías educativas. Sin embargo, dado que todos los datos visuales en la fórmula se derivan de fotografías con derechos de autor, las fotografías producidas, independientemente de su apariencia, son necesariamente obras derivadas. de aquellos a través de derechos de autor.
Según Business Insider, un constituyente de Stable Diffusion dijo que «las acusaciones de los artistas constituyen una falsa impresión de cómo funciona nuestra generación y la ley». Terminator genuino, de la historia del arte.