Investigan el código de OpenAI en medio del conflicto de derechos de autor que enfrenta a medios y empresas de IA

Un equipo de abogados del New York Times inspecciona una sala secreta relacionada con el código fuente de ChatGPT bajo estrictas medidas de seguridad. La cuestión central gira en torno a la posible violación de la propiedad intelectual

Guardar
Muchos medios están cada vez
Muchos medios están cada vez más alarmados por el potencial que tiene la IA para desdibujar las líneas entre el contenido original y el generado por máquinas. (Foto AP/Mark Lennihan, archivo)

La creciente preocupación por el uso indebido de contenido periodístico en el ámbito de la inteligencia artificial ha llevado a una escalada en las tensiones entre medios de comunicación y plataformas de tecnología. En este contexto, abogados del diario The New York Times han comenzado a investigar una sala secreta donde se almacena el código de OpenAI, la empresa responsable de ChatGPT. Esta acción forma parte de un esfuerzo más amplio para comprender cómo se ha utilizado el contenido del periódico en el desarrollo de modelos de lenguaje de inteligencia artificial.

Los profesionales legales del medio se encuentran en la búsqueda de respuestas sobre la manera en que OpenAI ha integrado información de sus artículos en la formación de sus sistemas de inteligencia artificial. La cuestión central gira en torno a la posible violación de derechos de autor, lo que ha llevado a la redacción del influyente diario a tomar medidas proactivas en la defensa de su propiedad intelectual.

El equipo legal del New York Times, respaldado por el bufete Susman Godfrey, ha establecido reglas estrictas para el acceso al código, y está evaluando si OpenAI ha utilizado más de diez millones de artículos sin compensar adecuadamente a los creadores.

La inspección de esta sala secreta revela una faceta menos conocida del trabajo de OpenAI, que ha sido objeto de atención internacional por su avance en la creación de herramientas de IA que generan texto de forma autónoma. Sin embargo, el uso de información proveniente de fuentes de noticias plantea serias preguntas sobre la ética en el manejo de datos y la transparencia en los procesos de entrenamiento de modelos de inteligencia artificial. En un contexto en el que la confianza del público es esencial, este tipo de investigaciones pueden tener un impacto significativo en la percepción que la sociedad tiene sobre las tecnologías emergentes.

La preocupación de The New York Times no es un caso aislado. Muchos medios están cada vez más alarmados por el potencial que tiene la IA para desdibujar las líneas entre el contenido original y el generado por máquinas. La posibilidad de que las plataformas de inteligencia artificial, como ChatGPT, utilicen artículos de noticias para su entrenamiento sin el consentimiento de las organizaciones que los producen podría erosionar aún más el ya frágil ecosistema de los medios.

La cuestión central gira en
La cuestión central gira en torno a la posible violación de derechos de autor. REUTERS/Dado Ruvic/Illustration/File Photo

En este contexto, la acción de los abogados del periódico podría sentar un precedente importante para el futuro de la industria. La resolución de este caso podría no solo afectar a OpenAI, sino que también podría influir en cómo otras empresas tecnológicas manejan el contenido protegido. Si se establece que las plataformas de IA deben compensar a los medios por el uso de su trabajo, esto podría dar lugar a una nueva era de relaciones comerciales entre medios y tecnología, donde se reconozcan los derechos de autor de manera más efectiva.

La vigilancia sobre el uso de datos por parte de OpenAI se produce en un momento en que la inteligencia artificial está cada vez más integrada en nuestras vidas cotidianas, desde asistentes virtuales hasta sistemas de recomendación. A medida que estas tecnologías continúan evolucionando, la pregunta sobre cómo se respetan y protegen los derechos de los creadores de contenido se vuelve más urgente.

Por otro lado, también surgen interrogantes sobre la responsabilidad que tienen las empresas de tecnología en el respeto de la propiedad intelectual. ¿Deben los desarrolladores de IA tener la obligación de informar de manera transparente sobre las fuentes de datos utilizadas en sus modelos? ¿Cuál es el papel de los reguladores en la creación de un marco que proteja tanto a los creadores de contenido como a los innovadores en el campo de la inteligencia artificial?

El litigio involucra no solo a OpenAI sino también a Microsoft, apuntando a modelos de inteligencia artificial que han sido entrenados con tecnología de OpenAI. La acción legal es parte de un fenómeno más amplio donde editoriales y autores han presentado cerca de dos docenas de demandas de derechos de autor en Estados Unidos contra empresas de inteligencia artificial generativa.

Según un portavoz del NYT citado por Business Insider, “los desarrolladores deberían pagar por el valioso contenido editorial que se utiliza para crear y hacer funcionar sus productos”.

Un punto crucial del caso es la evaluación del “uso justo”, un concepto legal que ampara la utilización transformadora de materiales protegidos por derechos de autor. Matthew Sag, profesor de Derecho, señala que en las demandas colectivas se pueden idear soluciones creativas, como otorgar a los autores un porcentaje de acciones. El análisis detallado del código y las declaraciones recogidas servirán para debatir sobre esta doctrina. Los abogados estudian si las creaciones generadas por ChatGPT compiten directamente con las obras originales, una preocupación que podría transformar los modelos de negocio actuales.

Business Insider reconoce que el
Business Insider reconoce que el alcance de la demanda del New York Times la hace una candidata para llegar hasta el Tribunal Supremo de EEUU (EFE/MICHAEL REYNOLDS)

Kristelia García, profesora de Derecho de Propiedad Intelectual en la Facultad de Derecho de la Universidad de Georgetown, comparó la situación actual con Napster en el ámbito musical. García comentó a Business Insider que “el periodismo es una especie de conejillo de indias” en este ámbito. Como antecedente histórico, Napster impulsó la industria musical hacia el uso de MP3s y el modelo de streaming, un proceso que podría repetirse ahora en el ámbito del periodismo y la IA. Estas demandas podrían establecer un precedente legal que afecte a todos los generadores de IA en el futuro inmediato.

Dado que el Congreso de Estados Unidos no ha intervenido en regular la inteligencia artificial, se espera que los tribunales dicten sentencias que puedan establecer nuevas normas. Este vacío regulatorio ha llevado a múltiples editoriales, incluyendo Axel Springer, a llegar a acuerdos con empresas de IA generativa para compartir contenidos con fines formativos. Business Insider reconoce que el alcance de la demanda del New York Times, respaldada por su amplia cantidad de contenidos y poder de mercado, la hace una candidata probada para llegar hasta el Tribunal Supremo de EEUU.

Por su parte, OpenAI y Microsoft se defienden en tribunales argumentando que la doctrina del uso justo ampara el empleo de los artículos para sus modelos. Alegan también que las reproducciones literales de los artículos son excepcionales y no una práctica general de la aplicación. No obstante, Christa Laser, profesora de Derecho en la Universidad Estatal de Cleveland, mencionó que “los jueces de Estados Unidos están desorientados” a la hora de decidir sobre estos casos, resaltando la complejidad del uso legítimo en datos de entrenamiento.

A medida que los abogados de The New York Times continúan su investigación, el resultado de este caso podría tener ramificaciones mucho más amplias. La batalla por los derechos de autor en la era digital está lejos de resolverse, y este es solo uno de los muchos frentes que se abrirán en los próximos años. La evolución de este conflicto entre los medios tradicionales y las plataformas de IA será un indicador clave de cómo se desarrollará la relación entre el contenido creado por humanos y el generado por máquinas en el futuro.

Guardar