• Saltar a la navegación principal
  • Saltar al contenido principal
Pen Paint Prompt

Pen Paint Prompt

  • INICIO
  • ENTRADAS
  • RECURSOS
  • EL PROYECTO
  • CONTACTO
  • ES
    • EN

¿Debe aplicar la excepción de reproducciones provisionales de carácter técnico a los sistemas de Inteligencia Artificial?

12 de junio de 2023 por Lucas Martín | Tags: Directiva Infosoc, Excepción de reproducciones provisionales, Machine Learning

Introducción

Santiago Caruso, artista gráfico, narra en su texto “Autoría y Autoencoders” el momento en el que se enteró de que su nombre se encontraba en una lista de artistas cuyos estilos emula Midjourney (una IA que genera imágenes a partir de texto). Vale la pena citar aquí sus palabras:

“Leí paralizado de terror, como quien viera a través de un monitor de seguridad a su doppelgänger entrando en la misma habitación para matarlo.

Más arriba, en ese mismo artículo, un instructivo del propio Midjourney explicaba cuál era el proceso para generar una imagen con la impronta de Malevich. Sólo tenías que tipear el objeto a representar y agregar: “pintado por Malevich”.

De este modo, cruel y directo como una puñalada, el artista y su obra son reducidos a una variable de estilo para el funcionamiento del algoritmo.”

No es el único afectado, evidentemente. Greg Rutkowski, Hollie Mengert y Thomas Kinkade1 son fantásticos ejemplos de cómo la irrupción de la inteligencia artificial generativa amenaza el sustento de los artistas a corto plazo y su profesión como la hemos entendido hasta ahora a largo plazo2.

Una vez acabes de leer este artículo, tendrás una comprensión suficiente de cuál es el proceso técnico de entrenamiento y generación de contenido de los actuales sistemas de IA, y, con ese conocimiento, podrás juzgar si al entrenamiento de modelos3 de IA y a su posterior generación de contenido le resulta de aplicación la excepción del artículo 5(1) de la Directiva InfoSoc.

¿Cómo se entrenan y generan imágenes los modelos de IA?

Si el funcionamiento técnico de un modelo de IA no te resulta de interés o ya estás familiarizado con su funcionamiento, te invito a pasar directamente al apartado de análisis jurídico. Sin embargo, sin entender superficialmente sus mecanismos difícilmente se puede valorar si aplica o no la citada excepción.

¿Qué es el Machine Learning?

Los sistemas de IA generativa más relevantes hoy en día aprenden gracias a un proceso llamado Machine Learning (ML), cuya característica más relevante es que proporciona a los sistemas la capacidad de aprender y mejorar automáticamente a partir de la experiencia, sin necesitar programación expresa para ello4. ¿Pero cómo puede lograrse un resultado tan asombroso de forma automática?

Un modelo de IA, esencialmente, es análogo a una función matemática. Esta función transforma el valor matemático de entrada (input) en otro valor matemático de salida (output). Para eso será necesario expresar matemáticamente tanto el lenguaje natural como las imágenes.

Empecemos explicando cómo se entrena y funciona un modelo de IA con un ejemplo clásico: un modelo que pueda identificar si en la imagen que se le ha mostrado hay o no hay un gato.

En primer lugar, descomponemos las imágenes de gatos (o cosas que no son gatos) en matrices de números, tal que así5:

Una vez expresada matemáticamente la primera imagen, se multiplica su valor numérico por el valor numérico de nuestro modelo de IA y el resultado será (según el modelo) la probabilidad que en la imagen utilizada como input se encuentre o no un gato. Como los valores numéricos del modelo, antes de ser entrenado, son totalmente aleatorios, sus decisiones también serán aleatorias y por lo tanto inservibles. A este resultado se le aplica una “función de costo”.

Poniendo el ejemplo más básico posible, el valor del error será de 100 si el modelo se ha equivocado al 100% y 0 si ha acertado al 100%. Por lo tanto, si ante una foto de un gato el modelo nos ha dicho que había un 30% de probabilidades “de gato”, la función de costo6 le arrojará un valor de 70. Una vez le hemos mostrado cantidades ingentes de imágenes al modelo obtenemos el agregado de las funciones de costo, que es el cómputo promedio de errores, el cual debería acercarse al 50%7.

Pero ¿Cómo mejoramos este modelo que empieza arrojando resultados aleatorios? El primer paso consiste en modificar aleatoriamente los valores del modelo de IA (que funciona como una caja negra) y volver a introducir imágenes de gatos y no gatos. Y la función de costo, sin que nosotros sepamos porqué, podría pasar a ser 50,01. Y en la siguiente iteración, 49,99.

Aquí está la clave de todo el asunto: al detectar una mejoría (descenso) en la función de costo, el modelo intenta identificar cuáles han sido los cambios en su caja negra y volver a aplicarlos. Si en el siguiente ejercicio la función de costo es de 49,5, significa que el modelo va por buen camino. Y, a base de poder computacional (fuerza bruta) y cantidades astronómicas de datos, se van logrando iteraciones del modelo de IA que cada vez reducen un poco más la función de costo8:

De este modo, se modifica la matriz de la caja negra premiando aquellas iteraciones obtuvieron los resultados más bajos, hasta que, eventualmente, el modelo neuronal es lo suficientemente bueno en la tarea que le hemos asignado (decir si en la foto hay o no un gato).

El proceso no consiste en hacer iteraciones aleatorias, sino utilizar la función de costo para identificar las mejoras y tratar de replicar aquellos cambios en la caja negra que han hecho que el modelo siga evolucionando. Esto es lo más cerca que hemos estado de expresar matemáticamente el concepto de aprender (seguimos lejos de expresar el “razonamiento”).

Este vídeo de 5 minutos, (publicado hace 7 años), te ofrece un ejemplo muy visual de lo que acabamos de explicar. Estos otros vídeos9 te ofrecen una explicación matemática más profunda.

Hasta aquí ya alcanzamos dos conclusiones preliminares. La primera, es que para que la caja negra mejore, hace falta una cantidad astronómica de datos, memoria y poder computacional, a los que tan solo hemos tenido acceso por una cantidad razonable de dinero hasta los años recientes. Y la segunda es que, al optimizar el modelo identificando patrones matemáticos, en realidad, la red neuronal no entiende lo que es un gato. En esencia es una fórmula matemática que ha sido optimizada para que cuando la multipliquemos por la expresión matemática de la foto de un gato, sea capaz de identificar con un 100% de precisión cuándo está viendo uno.

Nótese que el modelo no es un ser consciente, no piensa ni razona10, no entiende qué es un animal ni qué significa el término orejas, etc. “Solo” es una (incomprensiblemente complicada) función matemática.

Un proceso similar se utiliza no solo para entrenar los modelos, sino también para generar imágenes. Pongamos por caso el motor de IA Stable Diffusion. Este modelo ha sido entrenado con una versión más complicada de ML de lo que acabamos de explicar, pero cuyo funcionamiento entenderás igual de bien. En lugar de identificar datos, el objetivo del entrenamiento era que el modelo fuese capaz de añadir y sustraer ruido visual a una imagen11, tal que así:

Por motivos de eficiencia, los modelos generan imágenes latentes12 de distintos conceptos. Estas imágenes son algo así como una codificación visual del total de imágenes originales, algo así como el “esquema” de (por ejemplo) un gato, que luego se concretan según se pida al modelo.

Este proceso requiere menos memoria que almacenar todos los píxeles de una manzana, pues tan solo se comprimen sus patrones y luego se completa la imagen sin tener que usar memoria. Además, una vez “aprendido” el concepto de, siguiendo con el ejemplo, gato, resulta posible concretar ese gato en los términos que le pidamos al modelo (negro, blanco, o con gafas de sol), algo que no sería posible si la IA meramente se dedicara a suponerponer imágenes que ha copiado. Para entendernos, visualmente sería algo como esto13:

Una vez la IA está entrenada, ¿Qué proceso sigue para generar contenido?

Una vez la función está preparada, le podemos pedir que introduciendo un input nos muestre el output correcto. 

En el caso de Stable Diffusion, si mi input (Prompt) es una casa en el bosque, la primera iteración del output será una imagen de ruido de la que se podrá “extraer” una casa en el bosque. Las siguientes iteraciones empezarán a modificarse de forma que acabe siendo, eventualmente, precisamente eso. Este proceso es la famosa “difusión”14:

A partir de una foto de 100% ruido, el modelo tiene como tarea modificar la imagen para que sea 99% ruido y 1% “casa en el bosque”. A la siguiente iteración, será 98%-2%, y así sucesivamente hasta que tras muchas iteraciones llegue al resultado final. Como se puede observar, no junta una imagen de un bosque con una imagen de una casa y luego le añade una puerta. No es ese el proceso. Previamente ha identificado patrones de bosques y casas para poder extraerlos de imágenes de ruido y completarlos de forma que visualmente cobren sentido.

Si has entendido hasta aquí, ya anticiparás la explicación de cómo funcionan los modelos de lenguaje como Chat-GPT.

En primer lugar, por razones de eficiencia, se tokeniza el lenguaje natural. Es decir, se expresa matemáticamente. El proceso es esencialmente el mismo de antes. Input – caja negra – output. Así, el modelo se entrena hasta que el proceso de “Input – caja negra – output” obtiene una función de costo baja, y por lo tanto el output entra en el terreno de lo aceptable.

Por eso se dice, con sorna, que lo único que sabe hacer Chat-GPT es predecir qué palabra es probable que venga después de las anteriores15:

Una vez contamos con esta caja negra, análoga a una función matemática al que le das un número -input- y éste te devuelve otro número -output-, el poder queda en manos del usuario. El usuario se comunica con el modelo como si fuera un genio de la lámpara16 mediante “Prompts”, que es el término para el input que la IA se encargará de transformar en output.

La conclusión a la que se quiere llegar es contraintuitiva, por eso era importante explicar con mínimo detalle el proceso técnico.

  • La dimensión de las obras que los modelos de IA utilizan para aprender es precisamente la que, como sociedad, no hemos querido proteger por propiedad intelectual17.

Una IA que aprende mediante ML se nutre de hechos, ideas, patrones, conceptos subyacentes, definiciones comunes, reglas gramaticales, estilos etc. Todos ellos tienen algo en común: que no los hemos querido proteger vía derecho de autor porque no son originales, son anteriores a la expresión original de una determinada idea, que sí es objeto de protección. Indisociablemente a lo anterior, también se reproduce la dimensión que sí está amparada por el derecho de autor, sin que la misma (salvo excepciones) sea realmente explotada como tal, ya que una vez el modelo ha sido entrenado, se eliminan de su sistema las imágenes con las que ha sido entrenado.

Esta reproducción deviene, para el sistema de ML, una consecuencia accesoria, molesta e inescapable que no aporta valor añadido (puesto que, recordemos, el sistema aprende de “patrones” y como mucho de “estilos” que no son objeto de protección), y una vez absorbidos estos, no tiene utilidad para el contenido original.

  • El proceso de generación de contenido, independientemente de si produce imágenes o texto, no reproduce las obras con las que ha sido entrenado. Aplica los patrones y conceptos que ha aprendido y luego los autocompleta con una ejecución determinada. Sin embargo, no corta-y-pega ni tampoco “plagia” (en el sentido no legal de la palabra). No reproduce las obras en primer lugar por motivos de eficiencia (es más sencillo que el sistema aprenda los patrones de una manzana que que disponga de millones de imágenes de manzanas entre las que elegir para “pegar”) y porque la plasmación de patrones se adapta mejor a los deseos del usuario. Si el sistema copiase y pegase imágenes, y no hubiese sido entrenado con, por ejemplo, ninguna imagen de un astronauta peludo, sería incapaz de generarla. En cambio, al haber integrado la expresión matemática de lo que es un “astronauta” y la textura “peludo”, es capaz de generar un astronauta peludo.

Análisis legal

Una vez entendemos cómo funciona un modelo de IA ya podemos formularnos la pregunta central del artículo.

¿Aplica el art. 5(1) de la Directiva Infosoc a los modelos de Inteligencia Artificial?

La literatura existente hasta la fecha se centra en la aplicabilidad de las excepciones de minería de texto y datos (TDM) de los artículos 3 y 4 de la CDSM. El artículo enlazado18 es una reciente y excelente exposición de la aplicabilidad de dichas excepciones.

Sin perjuicio de lo anterior, cabe preguntarse si utilizar una obra protegida por propiedad intelectual para entrenar una IA y posteriormente generar contenido es amparable por la excepción del artículo 5. 1 de la Directiva InfoSoc.

Dicha excepción será de aplicación a:

“Los actos de reproducción provisional a que se refiere el artículo 2, que sean transitorios o accesorios y formen parte integrante y esencial de un proceso tecnológico y cuya única finalidad consista en facilitar:

a) una transmisión en una red entre terceras partes por un intermediario, o

b) una utilización lícita

de una obra o prestación protegidas, y que no tengan por sí mismos una significación económica independiente, estarán exentos del derecho de reproducción contemplado en el artículo 2.”

Cuando, además, cumplan con el apartado 5 del artículo 5:

“Las excepciones y limitaciones contempladas en los apartados 1, 2, 3 y 4 únicamente se aplicarán en determinados casos concretos que no entren en conflicto con la explotación normal de la obra o prestación y no perjudiquen injustificadamente los intereses legítimos del titular del derecho.”

Desgranaremos ahora los requisitos a cumplir para aplicar dicha excepción para concluir que, en nuestra opinión… Depende:

1.- Actos de reproducción provisional que sean transitorios o accesorios y formen parte integrante y esencial de un proceso tecnológico

Como hemos visto en el apartado anterior, la reproducción provisional de obras protegidas por copyright por un modelo de IA es:

  • Provisional19, porque no se conservan copias de las obras protegidas, ya que por razones de eficiencia se descartan automáticamente20 cuando se obtiene el modelo “destila” el patrón del concepto a reproducir. Sin embargo, la respuesta a si la reproducción es realmente “provisional” dependerá en gran medida de la realidad técnica de cada modelo, por lo que posiblemente se tenga que hacer un análisis caso por caso.
  • Transitoria o accesoria, porque la reproducción de la dimensión protegida de la obra es accesoria e indisociable de lo que realmente se extrae de ella, que no es la expresión de una casa concreta, sino sus patrones, como se ha explicado anteriormente.
  • Forma parte integrante y esencial del proceso tecnológico de ML.

2.- Cuya única finalidad consista en facilitar una utilización lícita [de la obra]:

Como hemos visto antes, en la generación de contenido una IA se sirve de los patrones y estilos que ha aprendido matemáticamente, es decir, de las dimensiones de la obra no protegidas por propiedad intelectual.

Aunque resulte contraintuitivo, si al pedir un cuadro al estilo Van Gogh, la IA genera un cuadro imitando al estilo Van Gogh es porque para el modelo, “Van Gogh” no corresponde a un artista, sino a un estilo, equiparable a “gótico” o “en blanco y negro”. Como ya hemos dicho, no está reproduciendo ningún cuadro de Van Gogh para generar algo con su estilo, sencillamente ha codificado los patrones necesarios para ello. Socialmente no sería deseable que los herederos de por ejemplo Borges pudieran perseguir a los que traten de imitar su prosa. Las obras de Borges son suyas, pero lo etéreo de su obra nos pertenece a todos (si me disculpáis la cursilada).

¿Qué debe entenderse por “utilización lícita”, entonces? Al respecto, el considerando 33 de la Directiva InfoSoc sostiene: “La utilización se considerará lícita en caso de que la autorice el titular del derecho o de que no se encuentre restringida por la ley«.

¿Y cómo ha interpretado el TJUE este concepto? Un buen resumen lo encontramos en la STJUE “Stichting Brein – Jack Frederik Wullems”21, en sus apartados 60 a 65, que damos por reproducidos. Si bien es cierto que dicha excepción debe interpretarse restrictivamente, no es menos cierto que el TJUE en el caso FAPL22 y en Infopaq II entendió que consistían usos lícitos:

“Actos efímeros de reproducción controvertidos en dicho asunto que hacían posible un funcionamiento correcto del decodificador de la señal vía satélite”.

Y lo que resulta más aplicable analógicamente al caso, que:

“La redacción de un resumen de artículos de prensa, a pesar de no estar autorizada por los titulares de los derechos de autor sobre dichos artículos, no se encontraba restringida por la normativa aplicable, de modo que la utilización controvertida en tal caso no podía considerarse ilícita”.

No existe normativa aplicable que prohíba que un programa de ordenador utilice la expresión matemática de contenido para “aprender” a partir de él. Tampoco existe en la UE una prohibición expresa al scraping, que es como en la gran mayoría de casos se ha obtenido acceso a las obras con las que se han entrenado los modelos de IA23.

No hay que perder de vista que el fundamento de la legislación de los derechos de autor es potenciar la creación (hasta ahora, humana) para impulsar el arte, la libre circulación de ideas, el desarrollo científico y cultural, etc. Difícilmente podremos concluir que utilizar obras protegidas por copyright para entrenar y una tecnología como la IA, tan prometedora en multitud de campos, va en contra del espíritu de la legislación y constituye un uso ilícito24.

Por todo lo anterior, entendemos que el uso que se da a las obras es lícito.

3.- Que no tengan por sí mismos una significación económica independiente

Como hemos visto anteriormente, se necesitan cantidades inconcebiblemente elevadas de obras para entrenar modelos de IA, y cada acto de entrenamiento no tiene significación económica independiente, por lo que podemos dar por cumplido este requisito. Claro que la reproducción de una particular foto ha contribuido a que el algoritmo aprenda, pero dado el colosal25 tamaño de las bases de datos empleados, no puede decirse que la reproducción de una imagen tenga por sí misma significación económica independiente.

La respuesta no es tan sencilla cuando hablamos de generar contenido y no de meramente entrenar el modelo de IA.

Al generar una imagen de, por ejemplo, una manzana, se parte de la imagen latente (los patrones) que el modelo ha aprendido corresponden a las manzanas y se autocompleta la imagen en función del Prompt introducido. Cuando este proceso matemático sucede, no se está efectuando ningún acto de reproducción de las imágenes originales. El modelo ya ha sido entrenado con anterioridad, descomponiendo las obras en patrones. Podemos afirmar categóricamente que en la generación de obras no hay reproducción de las obras precedentes por el sencillo hecho de que por cuestiones de memoria estas se eliminan automáticamente del modelo. Por lo tanto, no es que aplique la excepción, es que ni siquiera hay, después del entrenamiento, acto de reproducción de la obra original al generar contenido.

4.- Y, finalmente, que no entren en conflicto con la explotación normal de la obra y no perjudiquen injustificadamente los intereses legítimos de los titulares de derecho (apartado 5 del artículo 5)26

La aplicación del test de las tres etapas hará babear a los despachos de abogados comunitarios, ya que la respuesta a su aplicación es un contundente primerísimo plano de la palabra “depende”.

Ante la imposibilidad de llegar a una solución que no sea caso por caso, expondremos algunos argumentos a favor y en contra de la superación del test por parte de los modelos de IA.

A favor:

En la inmensa mayoría de casos de obras utilizadas para entrenar modelos de IA, su uso no entrará en conflicto con la normal explotación de su obra ni perjudicará los intereses de los artistas. Tenemos en mente modelos de IAs cuyo objetivo sea conducir coches eléctricos, software de reconocimiento facial, chats orientados a atención al consumidor, así como la mayoría de casos de uso que se dan a inteligencias artificiales generativas.

En este sentido cabe hacer referencia al nuevo artículo 30-4 de la Ley japonesa de Propiedad Intelectual27, que clasifica los usos que se hace de una obra entre aquellos susceptibles de disfrutarla artísticamente (享受) y aquellos que no (不見転). La idea subyacente es que el derecho de autor tan solo debería compensar al autor cuando su obra es disfrutada como tal, entendiendo que cualquier otro uso no perjudica los intereses legítimos del autor28.

Por un lado debemos considerar que, aunque es innegable el perjuicio a los intereses de los artistas cuyos estilos han sido codificados, no es menos cierto que la generación de imágenes que infrinjan derechos ajenos infringe a su vez los términos y condiciones de la práctica totalidad de IAs generativas existentes29, por lo que en principio su generación no es lícita.

Por último, de estimarse la existencia de infracción en el entrenamiento de modelos de IA, muy posiblemente estemos obligándoles a acabar con los proyectos de IA30. Esto puede llevar a los tribunales a tomar una decisión más política que jurídica, o dar margen a las empresas que comercialicen modelos de IA para que limiten técnicamente al máximo las posibilidades de usar sus plataformas para infringir derechos de terceros si quieren seguir funcionando legalmente. La solución más deseable, a nuestro parecer, sería implementar un sistema análogo al del “Content ID” de Google. En esa ocasión, en lugar de cargarnos el modelo de Youtube de alojamiento de vídeos subidos por usuarios anónimos, les responsabilizamos de las infracciones cometidas y se desarrolló una solución tecnológica que ha permitido compatibilizar el cumplimiento legal con el desarrollo de un modelo de negocio tan disruptor como lo fue en su momento.

En contra:

El caso más problemático que se nos ocurre es, precisamente, el de aquellos supuestos en los que la IA ofrece como output la misma obra con la que ha sido entrenada31, o una obra derivada32, no paródica ni transformativa, que no puede acogerse a ninguna excepción. Evidentemente, en estos casos se perjudica a la explotación normal de la obra, con lo cual no hay más discusión.

Más interesante me parece, por contra, lo que les sucede a artistas como los citados al inicio del artículo. ¿Cómo van a poder, a medio plazo, continuar comercializando su arte por encargo si resulta posible emular33 (de forma más o menos convincente) su estilo en segundos? ¿Qué valor van a tener sus obras si el mercado se inunda de réplicas indistinguibles para el ojo inexperto?

Aquellos modelos que han categorizado a artistas como variantes de estilo van en contra de los intereses legítimos de los artistas al afectar no a la normal explotación de una de sus obras, o de todas individualmente, sino incluso la de sus obras futuras.

Y es que el daño causado no es tan solo económico: para un artista, es sobretodo moral, ya que la afectación va más allá del beneficio económico por sus obras pasadas. Le despoja del monopolio sobre su discurso estético34. El daño moral causado, para los artistas vivos, es enorme.

¿Qué cara pondría Gaudí si le enseñamos un diseño de un campo de concentración al estilo La Pedrera? Supongo que la misma que pondría Rothko si le mostramos un catálogo outlet de pinturas militares realizado con su estilo.

Cierto es que este tipo de afrentas ya eran posibles antes de la existencia de modelos de IA, pero ahora se hacen accesibles a todo el mundo, sin esfuerzo, ni prácticamente recursos, lo que en la práctica, lo transforma en realidad. Incluso las previsiones más optimistas de las consecuencias de abrir esta caja de pandora no son muy favorables para los artistas lo suficientemente reconocidos como para verse afectados.

Conclusiones

A nuestro entender, y a modo de conclusión:

  1. A la mayoría de actuales modelos de IA, asumiendo que eliminan automáticamente  las obras con las que han sido entrenadas, se les puede aplicar la excepción del apartado 1, artículo 5 de la Directiva InfoSoc.
  2. Sin embargo cuando se reproduzca como output una obra original o el modelo de IA pueda emular al artista, aunque sea de forma imperfecta, y se le produzca una afectación moral y/o económica, no parece indicado beneficiar a los modelos de IA con esta excepción.
  3. Una vez el modelo ya ha sido entrenado, cuando genera contenido ni reproduce las obras con las que ha sido entrenado (ya que ni siquiera las almacena) ni produce obras derivadas de estas (salvo flagrantes excepciones).

Estamos en la era “Napster” del sector de la IA35, y en este artículo no hemos cubierto infinidad de cuestiones que nos darían un contexto imprescindible para entender el cambio de paradigma que se nos ha venido encima. Entre otros, la aplicabilidad del fair use en Estados Unidos36, el detalle de la legalidad de la obtención de los datos mediante scraping37, el uso de entidades sin ánimo de lucro (financiadas por las propias empresas de IA) para recopilar las bases de datos que posteriormente se usarán para entrenar los modelos38, la litigación sobre la materia39, las formas de compensación alternativa que pueden concederse a los artistas40, etc. 

En fin, apasionante. ¡Nos vemos en el siguiente!

Suscríbete a nuestra Newsletter

¡No hacemos spam! Lee nuestra Política de privacidad para obtener más información.

Gracias! Sólo queda que hagas click en confirmar tu suscripción en el correo que te acabamos de enviar (si no lo ves, revisa el spam)

Footnotes

  1. Como se puede comprobar en este enlace, 9.268 obras gráficas del Sr. Kinkade constan en la base de datos LAION, utilizada para el entrenamiento del modelo de IA Stable Diffusion.
  2. La huelga de la Writers Guild of America y el manifiesto de EGAIR son buenos ejemplos de ello.
  3. Terminológicamente, utilizamos “modelo de IA” cuando nos queremos referir al back-end, es decir, al motor de la IA. Por otro lado, utilizamos “sistema de IA” cuando nos queremos referir a todo el aplicativo. Esta diferencia queda clara en la redacción del artículo 10.6 del AI ACT, que emplea ambos términos en este sentido.
  4. Tal y como explica el artículo “What exactly is Machine Learning?”
  5. Figura extraída de aquí. Como es evidente, el proceso es muchísimo más complejo que el ejemplo.
  6. Estrictamente hablando, cuando se calcula el error de un solo output estaríamos hablando de la función de pérdida, que pasa a ser la función de costo cuando lo que expresa es el error promedio del conjunto del entrenamiento realizado.
  7. Teniendo en cuenta que los valores del modelo de IA empiezan siendo aleatorios.
  8. Gráfico obtenido de este sitio web.
  9. Titulados “But what is a neural network? | Chapter 1, Deep learning” y “Gradient descent, how neural networks learn | Chapter 2, Deep learning” ambos del canal “3Blue1Brown”.
  10. Ver definición de ‘razonar’ de la RAE.
  11. Como explican los artículos “What Is Stable Diffusion and How Does It Work?” y “How does Stable Diffusion work?” con mayor detalle técnico.
  12. Un concepto de elevadísima complejidad, explicado en el artículo “What Is the Latent Space of an Image Synthesis System?” 
  13. Imagen del ya citado artículo “How does Stable Diffusion work?”.
  14. Gif extraído de Reddit, Here's a short video of what happens behind the scenes when Stable Diffusion generates a picture.
  15. Aunque quizás no sea del todo exacto, es un concepto entendedor. Para más, véanse los artículos “How ChatGPT Works: The Model Behind The Bot” y “How ChatGPT actually works”.
  16. No estamos tampoco ante la panacea. Véase el artículo (bastante desfasado pero no por ello desdeñable) “How to Systematically Fool an Image Recognition Neural Network” sobre cómo engañar un sistema como el descrito.
  17.  A favor, y explicándolo mejor que nosotros el excelente paper “Fair Learning”. En contra, en Stable Diffusion litigation se argumenta que el output debe considerarse una obra derivada de las obras utilizadas para entrenar el modelo. Basta por ahora con apuntar que plantear que una determinada obra generada por un modelo de IA es una derivación de las obras precedentes con las que se ha entrenado dicho modelo (que perfectamente pueden ser más de un millón incluso para las imágenes menos populares) es desvirtuar el concepto de obra derivada.
  18. Titulado “Generative AI, Copyright and the AI Act” por João Pedro Quintais.
  19. En el apartado 62 de la STJUE “Infopaq I” (ECLI:EU:C:2009:465), al respecto de la provisionalidad de la reproducción, se sostiene: “La seguridad jurídica de los titulares de los derechos de propiedad intelectual exige además que la conservación y supresión de la reproducción no dependa de un acto humano discrecional, concretamente la intervención del usuario de las obras protegidas por dicha normativa. Ciertamente, en tal caso, nada garantiza que el usuario procederá a la supresión efectiva de la reproducción o, en todo caso, que lo suprimirá cuando ya no se pueda justificar su utilidad en el marco del procedimiento técnico.” Por lo que, si fuese automática la supresión de las obras originales al ser sustituidas por patrones (de hecho, debería serlo, por carecer los modelos de IA de la suficiente memoria como para almacenar las imágenes originales) se debe considerar que su uso es provisional.
  20. Algo extremadamente relevante a la vista del apartado 65 de la ya citada STJUE Infopaq I. Es decir, que si el propietario de una IA decide mantener un repositorio con las obras que ha utilizado para entrenar la IA por cualquier motivo (trazabilidad del sistema, protección de datos, gestión de derechos de imagen, revisiones sobre  sesgos del modelo, etc.) dejará de aplicarle la excepción. Parece que, indeseablemente, se penaliza una buena práctica como esta en el entrenamiento de modelos de IA. Asimismo, el Tribunal Supremo ha puesto el énfasis en esta cuestión en la Sentencia 650/2022 de 11 de octubre (ECLI:ES:TS:2022:3598): “la demandada debería haber justificado que la reproducción de esos fonogramas encaminada a su comunicación pública formaba parte de un proceso tecnológico que aseguraba el carácter provisional y transitorio de la reproducción por medio de un mecanismo automatizado que, tanto en su creación como supresión, no requiere la intervención humana.”
  21. STJUE “Stichting Brein” C-527/15 de 26 de abril de 2017 (ECLI:EU:C:2017:300).
  22. Sentencia de 4 de octubre de 2011, Football Association Premier League y otros, C‑403/08 y C‑429/08, EU:C:2011:631, § 170-172.
  23. En sentido contrario, resulta de aplicación la STJUE “Ryanair” Asunto C-30/14 ECLI:EU:C:2015:10, ya que al ser el contenido objeto del scraping protegible por derecho de autor, al propio scraping le resultarán de aplicación las excepciones de la Directiva Infosoc que precisamente ahora analizamos. Para contextualizar, el scraping es algo que Google hace con regularidad para tener indexado todo el contenido de internet posible en su buscador, al que accederá salvo que el titular del web haga “opt-out” con medidas tecnológicas.
  24. Pablo Fernández Carballo-Calero, en su obra de referencia “La propiedad intelectual de las obras creadas por inteligencia artificial” analiza si la propiedad intelectual debería incentivar el contenido generado por una IA sin intervención humana en función de las teorías 1) Del trabajo (Locke) 2) Personalista y 3) Utilitarista. La conclusión alcanzada es que el espíritu del derecho de autor no debería conducirnos a reconocer como obras aquellas creadas sin intervención humana. Sin embargo, ello no significa que dicha generación una actividad ilícita, sino que sencillamente no debería incentivarse por la vía de la propiedad intelectual.
  25. Se me están acabando las formas de decir “muchos, muchísimos datos”.
  26. Este análisis se hace sin perder de vista que el TJUE, en Infopaq II, apartados 55-57 dice: “basta señalar que cuando dichos actos de reproducción cumplen todos los requisitos del artículo 5, apartado 1, de la Directiva 2001/29, tal como han sido interpretados por la jurisprudencia del Tribunal de Justicia, debe considerarse que no entran en conflicto con la explotación normal de la obra ni perjudican injustificadamente los intereses legítimos del titular del derecho”. A pesar de la contundencia de las palabras del TJUE  esta conclusión no parece aplicable sin mayor reflexión a los casos de ML.
  27. Traducido burdamente al castellano desde este enlace: “Está permitida la explotación de una obra, de cualquier forma y en la medida que se considere necesaria, en cualquiera de los siguientes casos, o en cualquier otro caso en el que no sea el propósito de una persona disfrutar personalmente o hacer que otra persona disfrute de los pensamientos o sentimientos expresados en dicha obra; sin embargo, esto no se aplica si la acción perjudica injustificadamente los intereses del titular de los derechos de autor a la luz de la naturaleza o el propósito de la obra o de las circunstancias de su explotación: (i) si se realiza para su uso en pruebas para desarrollar o poner en uso práctico tecnología relacionada con la grabación de sonidos o imágenes de una obra u otra explotación de este tipo; (ii) si se realiza para su uso en análisis de datos (entendiendo por ello la extracción, comparación, clasificación u otro análisis estadístico del lenguaje, sonidos, imágenes u otros datos elementales constitutivos de un gran número de obras o de un gran volumen de otros datos de este tipo; lo mismo se aplica en el artículo 47-5, apartado (1), inciso (ii)); y (iii) si se explota en el curso del tratamiento informático de datos o se explota de otro modo que no implique que lo expresado en la obra sea percibido por los sentidos humanos (para las obras de programación informática, dicha explotación excluye la ejecución de la obra en un ordenador), más allá de lo establecido en los dos puntos anteriores".
  28. En este sentido, el fantástico artículo: Text and data mining exceptions in the development of generative AI models: What the EU member states could learn from the Japanese “nonenjoyment” purposes? de Artha Dermawan.
  29. Como describe Ryan Khurana en este enlace y podemos comprobar en el apartado 2 de los Términos de uso de Open AI, entre otros.
  30. Tal y como elocuentemente se describe en “Fair Learning”: “Y como es probable que los conjuntos de formación contengan millones de obras diferentes con miles de propietarios distintos, no hay ninguna opción plausible que consista simplemente en licenciar todas las fotografías, vídeos, archivos de audio o textos subyacentes para el nuevo uso. Así que permitir una reclamación de derechos de autor equivale a decir, no que se pagará a los propietarios de los derechos de autor, sino que no se permitirá el uso en absoluto, al menos sin intervención legislativa” (Traducción no oficial).
  31. Como le sucedió al programador Tim Davis, de lo que se quejó en Twitter.
  32. Como cuando un sistema de IA produce output que incluye personajes protegidos por el derecho de autor, como en este caso. Hablamos de obra derivada porque de forma evidente se está transformando la obra original. Sin embargo, esta es la excepción a la regla general, ya que como hemos visto, la generación de contenido no se basa directamente en una o varias obras previas, sino en millones de ellas, siendo imperceptible la influencia de cada una en el resultado final.
  33. Creo que no peco de romántico al pensar que un modelo de IA nunca va a poder capturar fielmente la esencia de determinados artistas o sus piezas. Temo, sin embargo, que será espectacularmente buena en dar esa impresión, de la misma forma que Chat-GPT parece razonar, y que con ello el incentivo económico se aleje significativamente del arte creado por humanos.
  34. Ver página 33 y ss. del ya citado Autoría y Autoencoders de Santiago Caruso.
  35. En palabras del abogado Matther Butterick.
  36. Debate del que el citado artículo Fair Learning es un convincente ejemplo.
  37. No solo su legalidad per se, sino también las consecuencias técnicas que trae aparejadas.
  38. Como se explica en este artículo, se demuestra aquí, y no debe ignorarse teniendo en cuenta su incidencia en el análisis del fair use.
  39. De las que los casos Github, Getty Images, o la controversia jurídica con LAION en Europa son fantásticos ejemplos.
  40. Tales como una compensación por los datos usados por entrenar IAs solicitado por plataformas como Reddit y Stack Overflow, el uso de marcas de agua, o la transición del arte gráfico a un modelo como el de la música de “Pay per Play”, o incluso (Dios nos libre) la creación de nuevas entidades de gestión colectiva.

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

LinkedInTwitter
Aviso Legal · Política de Privacidad · Política de Cookies

No usamos cookies, ni siquiera técnicas. Este banner es sólo para desearte un buen día.