¿Qué te ha parecido esta guía? Ingresa aquí |
La irrupción de la inteligencia artificial generativa en la producción de textos, imágenes, música y código ha planteado desafíos sin precedentes para el derecho de autor. En el contexto universitario y bibliotecario, el uso creciente de herramientas como ChatGPT, DALL·E o Copilot obliga a repensar quién es el autor de una obra, cómo se protege legalmente y qué implicaciones tiene su uso. Este apartado ofrece una mirada crítica y actualizada a los vacíos normativos, los riesgos y las oportunidades desde una perspectiva académica.
Resumen de Podcast 3:
"Los Derechos de autor y propiedad intelectual en la IA"
Fuentes
Conceptos clave
Conjunto de normas que protege a los creadores de obras originales como textos, imágenes, música y software, garantizando su reconocimiento y control sobre el uso de sus creaciones.
Concepto más amplio que abarca el derecho de autor, pero también incluye patentes, marcas y diseños industriales. Protege el fruto de la creatividad y la innovación.
Para ser protegida, una obra debe reflejar creatividad humana. Por ello, hasta hoy, las creaciones puramente algorítmicas no suelen ser reconocidas como obras protegidas.
El debate actual gira en torno a si las creaciones realizadas por herramientas de IA pueden ser protegidas legalmente y, de ser así, quién sería el titular legítimo de esos derechos.
La IA como creadora
Uso ético en la investigación
La Universidad de Lima, a través del Instituto de Investigación Científica (IDIC), establece principios esenciales para un uso responsable de herramientas de IA. Estos fundamentos buscan asegurar el cumplimiento ético, legal y técnico de su aplicación en contextos académicos.
La IA debe aplicarse procurando el mayor bienestar posible, considerando también su impacto ambiental (Bostrom & Yudkowsky, 2014).
El uso de IA debe garantizar acceso equitativo a resultados y beneficios de investigación (Mehrabi, 2021; Mittelstadt, et al., 2016).
Se reconoce la responsabilidad de autores y participantes, quienes deben mantener control sobre sus acciones (Jobin, 2019).
La investigación con IA debe garantizar el anonimato y el consentimiento informado de los datos utilizados (Rocher, 2019).
Estas universidades de prestigio mundial han establecido protocolos rigurosos para el uso ético, transparente y responsable de la inteligencia artificial en contextos académicos y de investigación:
Requiere declarar todo uso de IA. Prohíbe emplear IA pública con datos sensibles. Exige validación humana, protección de la privacidad y cumplimiento de normativas como el GDPR.
Autoriza IA solo para borradores o análisis preliminares. Toda producción automatizada debe verificarse, editarse y validarse por humanos para preservar la autoría intelectual.
Implementa formación ética obligatoria. Prohíbe usar IA no autorizada con información institucional. Regula el manejo responsable de datos desde TI.
Su comité de ética evalúa proyectos con IA. Exige documentación de prompts, procedimientos y validación humana para garantizar reproducibilidad y respeto ético.
Prohíbe IA no explicable en ámbitos clínicos y sociales. Exige transparencia algorítmica, auditorías contra sesgos y protección estricta de datos sensibles.
Insiste en proteger datos confidenciales, patentes y derechos de autor. Impulsa políticas de privacidad y ética en el uso de plataformas de IA.
Estos son los contextos en los que la aplicación de la inteligencia artificial está justificada desde un enfoque ético y metodológico:
Cuando se controlan adecuadamente las variables y sujetos de estudio, la IA puede aportar mayor valor que riesgo (Brundage et al., 2018).
Enmarcada en modelos pedagógicos formales y con propósito didáctico claro, sin reemplazar la evaluación humana (Luckin, 2018; Pardo et al., 2017; Williamson, 2023).
Debe declararse que no se vulneran datos personales, derechos de autor ni consentimiento informado (Asociación Médica Mundial, 2024; Hugenholtz & Quintais, 2021).
La IA debe ser alternativa solo cuando no existan metodologías replicables aceptadas en la disciplina (National Academies of Science Engineering and Medicine, 2019).
Se permite si los modelos tradicionales no cubren adecuadamente el estudio, indicando diseño y sesgos (Hooker, 2021).
Debe documentarse teoría, datos, prompts y procedimientos usados, asegurando replicabilidad (Bender et al., 2021; Hutson, 2018).
De acuerdo con el protocolo institucional del IDIC, se detallan las siguientes prácticas autorizadas y restringidas en el contexto académico:
La IA puede facilitar la organización de ideas mediante títulos y subtítulos sin suplantar la escritura humana.
No está permitido delegar la redacción completa de contenido académico a sistemas de IA.
La IA puede apoyar en la interpretación de grandes volúmenes de datos o en la elaboración de gráficos y patrones.
La IA no debe considerarse fuente experta ni tomar decisiones complejas sin supervisión humana.
Puede usarse para corregir ortografía, estilo y formato, sin generar contenido nuevo.
No se deben emplear respuestas de IA sin verificación, ya que podrían contener sesgos o errores.
La IA puede ser una herramienta didáctica de apoyo para facilitar la comprensión de temas difíciles.
Es obligatorio validar y contrastar toda información provista por sistemas de IA con fuentes académicas fiables.
La IA puede apoyar en la selección de literatura pertinente para revisiones sistemáticas.
Modificar o reutilizar obras generadas por otros mediante IA sin dar crédito es antiético y puede ser ilegal.