El auge de modelos de IA como ChatGPT ha desatado un debate significativo en el mundo literario, particularmente en lo que respecta al uso de material con derechos de autor para entrenar estos modelos. Este artículo explora la controversia en torno a las editoriales que buscan el consentimiento de los autores para permitir el entrenamiento de la IA en sus obras, al mismo tiempo que condena a las empresas tecnológicas que ya lo están haciendo sin permiso ni compensación, y destaca las implicaciones más amplias para artistas, editores y el futuro del conocimiento.
La respuesta de la comunidad literaria australiana al acuerdo propuesto de entrenamiento de IA de Black Inc destaca una crisis creciente: la explotación no autorizada de obras con derechos de autor por parte de gigantes tecnológicos. La indignación surge de la realización de que empresas como OpenAI, Google y Meta están entrenando sus modelos de IA, como ChatGPT, Gemini y Llama, con vastas cantidades de obras literarias sin consentimiento ni compensación a autores o editores. Esta situación es particularmente aguda para pequeñas editoriales independientes como Black Inc, que son vitales para el panorama literario australiano pero luchan por competir con el poder financiero de las “Big Five” editoriales. El autor, que tiene un interés personal como autor publicado con Black Inc y como investigador de IA durante cuatro décadas, enmarca la situación como una respuesta necesaria, aunque imperfecta, a una tendencia más amplia y preocupante.
La precaria situación de pequeñas editoriales como Black Inc subraya la urgencia del problema. Estas editoriales brindan un servicio crucial, cultivando a nuevos autores australianos y publicando obras que quizás no sean comercialmente viables pero sí culturalmente significativas. El autor señala la reciente adquisición de Text Publishing Company por Penguin Random House, la editorial general de libros más grande del mundo, como evidencia de los desafíos que enfrentan las editoriales independientes en un mercado cada vez más dominado por entidades corporativas. La publicación, similar al capital de riesgo, opera bajo un modelo en el que la mayoría de los libros pierden dinero, con los editores dependiendo del éxito ocasional de un bestseller para compensar las pérdidas y sostener sus operaciones. Sin este sistema de apoyo, la diversidad y la vitalidad de la literatura australiana se verían gravemente disminuidas. La gratitud del autor por el apoyo de Black Inc a su propia carrera y la compañía de autores estimados como Richard Flanagan, David Marr y Noel Pearson enfatiza el valor de estas editoriales y las posibles consecuencias de su inestabilidad financiera.
El núcleo de la indignación radica en el descarado desprecio de las empresas tecnológicas por la ley de derechos de autor y el principio de compensación justa por el trabajo creativo. El autor relata haber informado a Black Inc a principios de 2023 que ChatGPT podía resumir con precisión capítulos de su primer libro, lo que demuestra hasta qué punto los modelos de IA ya estaban ingiriendo material con derechos de autor. A pesar de esta evidencia, las empresas tecnológicas continúan afirmando el “uso justo” como justificación para sus acciones, una afirmación que el autor rechaza enérgicamente. La comparación del autor de la situación con “el mayor atraco de la historia humana” subraya la escala de la explotación, donde toda la cultura humana se está absorbiendo en modelos de IA para el beneficio de unas pocas empresas tecnológicas. El hecho de que estas empresas probablemente hayan entrenado sus modelos con copias obtenidas ilegalmente de libros de conjuntos de datos en línea como books3, recopilados por piratas rusos, agrava la injusticia, destacando la falta de consideraciones éticas en sus prácticas.
El autor traza una analogía convincente entre la actual crisis de explotación de la IA y el momento de Napster en la industria musical, donde la descarga ilegal generalizada de archivos amenazaba los medios de vida de los músicos. Así como Napster finalmente fue cerrado y reemplazado por servicios de transmisión que compensaban a los artistas por su trabajo, el autor argumenta que se necesita un modelo similar para la publicación. La transmisión, a pesar de sus imperfecciones, proporciona un marco para compensar a los creadores por su trabajo, y la publicación debe seguir el mismo camino. La decisión del autor de firmar el acuerdo de Black Inc, a pesar de las reservas sobre la estrategia de comunicación de la editorial, se enmarca como una respuesta pragmática a un problema mayor: la necesidad de que las pequeñas editoriales tengan una posición de negociación sólida contra los gigantes tecnológicos.
El autor expresa su preocupación por los cambios propuestos por el gobierno británico a la ley de derechos de autor, que permitirían a los desarrolladores de IA entrenar sus modelos con cualquier material al que tengan acceso legal, requiriendo que los creadores opten explícitamente por no participar para evitar que se utilice su trabajo. Este enfoque esencialmente traslada la carga de protección a los creadores, dificultando y encareciendo la salvaguardia de su propiedad intelectual. La crítica del autor al argumento de las empresas tecnológicas de que entrenar modelos de IA con libros no es diferente de que los humanos lean obras con derechos de autor destaca la diferencia fundamental de escala. Los modelos de IA se entrenan con muchos más libros de los que podría leer cualquier humano en una vida, y, como argumenta la demanda de The New York Times contra OpenAI, este proceso está activamente quitando negocio a las editoriales, poniendo en peligro su supervivencia.
El autor pinta un cuadro escalofriante de un futuro en el que los modelos de IA ingieren todo nuestro conocimiento digital, no solo libros, sino también ciencia, conocimiento cultural e información personal. Este escenario evoca una visión distópica de “Gran Hermano”, no como la imaginó Orwell, sino como un sistema controlado por una poderosa empresa tecnológica que posee más conocimiento sobre nosotros y el mundo de lo que cualquier humano podría comprender. El potencial de estas empresas para utilizar esta información para manipular nuestro comportamiento y nuestras decisiones de compra de maneras que no podemos entender plantea serias preocupaciones éticas y sociales. El autor enfatiza que este robo de conocimiento está ocurriendo “a plena vista”, lo que lo convierte en un delito mucho más grave que el robo relativamente menor y trivial asociado con Napster.
El autor argumenta que las empresas de IA están explotando obras con derechos de autor sin consentimiento ni compensación, comparándolo con un “robo digital” reminiscente de Napster. Aunque muestra simpatía por el intento de Black Inc. de negociar, condena las acciones de las grandes tecnológicas y los propuestos cambios de derechos de autor del gobierno británico, advirtiendo sobre un futuro en el que las empresas de IA acumulen un conocimiento sin precedentes y potencialmente manipulen a la sociedad. Debemos exigir una compensación justa y proteger el valor de la creatividad humana en la era de la inteligencia artificial.
Leave a Reply