
El 12 de febrero de este año, la actriz Scarlett Johansson retomó sus críticas públicas al mal uso de la inteligencia artificial generativa (IA gen) e instó al gobierno de los EE. UU. a que haga “una máxima prioridad” la aprobación de una legislación que limite el uso de la IA, en lo que considera “un tema bipartidista que afecta enormemente al futuro inmediato de la humanidad en general”. El primer llamado de la actriz se hizo en 2024, cuando acusó a OpenAI de usar su voz sin autorización para una versión de ChatGPT.
Pero estas últimas declaraciones las hizo a raíz de un video generado por IA por el creador israelí Ori Bejerano, quien usó la imagen de varias celebridades judías para producir un video falso en el que las versiones IA de Johansson, Jerry Seinfeld, Ben Stiller, Steven Spielberg y Lenny Kravitz, entre muchas otras, usaban camisetas blancas con la estrella de David dentro de una mano haciendo un gesto vulgar con “Kanye” escrito debajo.
“Soy una mujer judía que no tolera el antisemitismo ni el discurso de odio de ningún tipo. Pero también creo firmemente que el potencial de discurso de odio multiplicado por la IA es una amenaza mucho mayor que cualquier persona que asuma la responsabilidad por ello. Debemos denunciar el mal uso de la IA, sin importar su mensaje, o corremos el riesgo de perder el control de la realidad”, dijo Johansson.
Estas palabras son de especial relevancia cuando se toma en cuenta que Donald Trump anuló la orden ejecutiva de Joe Biden que exigía a los principales desarrolladores de inteligencia artificial que compartieran evaluaciones de seguridad e información vital con el gobierno federal. Con esta anulación, los desarrolladores ahora no tienen directrices formales sobre esta materia.
No obstante, y mientras el país espera por avanzar hacia el establecimiento de normas formales, la Oficina de Derechos de Autor de Estados Unidos (USCO, por sus siglas en inglés), elaboró un informe sobre las cuestiones jurídicas relacionadas con los derechos de autor y la IA, así como las políticas a implementar en esta materia. Este informe se dividió en tres partes, de las cuales solo se han entregado dos; la primera de ellas se hizo pública en julio de 2024 y abordó el uso de la tecnología digital para replicar de manera realista la voz o la apariencia de una persona, mientras la segunda, publicada a finales de enero de 2025, abordó la posibilidad de proteger los derechos de autor de los materiales creados mediante IA generativa.
Este informe es parte de una iniciativa lanzada por la USCO a principios de 2023, que incluyó la organización de sesiones de escucha pública y seminarios web, así como la publicación de un aviso de investigación en el Registro Federal en agosto de 2023, que recibió más de 10.000 comentarios hasta diciembre de ese año.
Gracias a esta iniciativa, la Oficina ha examinado los aspectos de derecho de autor y políticas públicas que plantea la IA (como los derechos de autor en las obras generadas por IA y el uso de materiales protegidos por derechos de autor en el entrenamiento de la IA) y en su tercera parte analizará las implicaciones legales del entrenamiento de modelos de IA en obras protegidas por derechos de autor, las consideraciones sobre licencias y la asignación de cualquier posible responsabilidad.
Volviendo a la más reciente entrega de este informe, la USCO consideró que los principios existentes de la legislación sobre derechos de autor son lo suficientemente flexibles como para aplicarse a la IA generativa, como ya se ha hecho con tecnologías anteriores.
“(…) los resultados de la IA generativa solo pueden protegerse mediante derechos de autor cuando un autor humano ha influido determinantemente en suficientes elementos expresivos. Esto puede incluir situaciones en las que una obra de autoría humana es perceptible en lo que ha generado la IA, o en las que un humano hace arreglos creativos o modificaciones del material generado por IA, pero no la mera provisión de indicaciones. La Oficina confirma que el uso de la IA para ayudar en el proceso de creación o la inclusión de material generado por IA en una obra más grande generada por humanos no impide la protección de los derechos de autor”, concluyó la USCO.
En general, la Oficina aclaró que la autoría humana en obras que incluyan el uso de IA generativa es esencial para calificar y otorgar la protección de los derechos de autor, ergo las obras generadas íntegramente por IA no pueden estar sujetas a estos derechos. Lo que es materia protegible son las obras asistidas por IA que requirieron una contribución humana sustancial, mientras que simplemente darle una indicación a una herramienta de IA no es suficiente.
En sintonía con esta exigencia, la USCO requiere que los solicitantes de protección de sus derechos de autor sean transparentes en cuanto a la participación de la IA en las creaciones para determinar con precisión sobre qué recaen los derechos de autor. Shira Perlmutter, Registradora de Derechos de Autor y Directora de la USCO, dijo que ampliar la protección a obras cuyos elementos expresivos están determinados por una máquina socava los objetivos constitucionales de los derechos de autor.
La segunda parte del informe de la USCO destaca un hecho fundamental: Los derechos de autor siguen siendo un derecho reservado a las obras creadas por seres humanos y esta distinción plantea interesante discusiones de propiedad intelectual, normativas y éticas sobre el futuro de la creación de contenidos, la transparencia en el uso de la IA y la adopción de mejores prácticas para mitigar los riesgos legales.
Europa también discute sobre la IA
El 10 y 11 de febrero, tuvo lugar en París la tercera Cumbre de Acción sobre Inteligencia Artificial (IA) en la que participaron directores de organizaciones internacionales, directores ejecutivos de pequeñas y grandes empresas, representantes del mundo académico, organizaciones no gubernamentales y miembros de la sociedad civil. Durante los dos días de encuentro, los asistentes discutieron sobre la regulación para facilitar el florecimiento de la IA en la Unión Europea y la necesidad de adoptar un enfoque más flexible y simple para ayudar a mantener a las empresas europeas en la carrera tecnológica.
El cierre de la conferencia resaltó el excepcionalismo de Estados Unidos, que, representado por su vicepresidente, JD Vance, se negó a firmar la declaración diplomática sobre una IA “abierta, inclusiva, transparente, ética, segura y confiable”, ya que la posición de la Administración Trump difiere del enfoque regulatorio de la UE que, para él, podría sofocar la innovación y, en cambio, se inclina más a un desarrollo libre de esta tecnología, que no esté guiado por una regulación global o un exagerado enfoque en la seguridad. Reino Unido también declinó firmar la declaración conjunta debido a que, para ellos, el documento no profundizó en la gobernanza global de la IA y el impacto de esta en la seguridad. En total, 60 países firmaron el documento.
Pensando en que las predicciones estiman que las IA que igualen o superen a los humanos en cualquier tarea intelectual están, en promedio, a cinco años de existir, los asistentes (entre esos Dario Amodei, director ejecutivo de IA Anthropic) señalaron que los gobiernos deben enfocarse más en medir el impacto económico de la IA avanzada que, para él, podría representar el mayor cambio en el mercado laboral global en la historia de la humanidad y, para 2026 o 2027, podría equivaler a un nuevo estado “poblado por personas altamente inteligentes que aparecen en el escenario global”.
Amodei dijo estar decepcionado de que la Cumbre no abordó con mayor profundidad los riesgos de la inteligencia artificial general (AGI), para la que considera se necesita un mayor enfoque y urgencia, tomando en cuenta el ritmo al que avanza la tecnología. Para el Director de IA Anthropic, las democracias deben tomar en cuenta “los riesgos de la IA y las transiciones económicas que se avecinan rápidamente: todos estos deberían ser aspectos centrales de la próxima cumbre”.