Ir al contenido principal Responsive Header
Biblioteca
Logo Universidad de Lima Universidad de Lima

Inteligencia Artificial en la Investigación Académica

Guía práctica sobre IA en la investigación: búsqueda, evaluación, organización y uso ético.

La irrupción de la inteligencia artificial generativa en la producción de textos, imágenes, música y código ha planteado desafíos sin precedentes para el derecho de autor. En el contexto universitario y bibliotecario, el uso creciente de herramientas como ChatGPT, DALL·E o Copilot obliga a repensar quién es el autor de una obra, cómo se protege legalmente y qué implicaciones tiene su uso. Este apartado ofrece una mirada crítica y actualizada a los vacíos normativos, los riesgos y las oportunidades desde una perspectiva académica.

Conceptos clave


Derecho de autor

Conjunto de normas que protege a los creadores de obras originales como textos, imágenes, música y software, garantizando su reconocimiento y control sobre el uso de sus creaciones.

Propiedad intelectual

Concepto más amplio que abarca el derecho de autor, pero también incluye patentes, marcas y diseños industriales. Protege el fruto de la creatividad y la innovación.

Obra original

Para ser protegida, una obra debe reflejar creatividad humana. Por ello, hasta hoy, las creaciones puramente algorítmicas no suelen ser reconocidas como obras protegidas.

Autoría humana vs. IA

El debate actual gira en torno a si las creaciones realizadas por herramientas de IA pueden ser protegidas legalmente y, de ser así, quién sería el titular legítimo de esos derechos.


 

La IA como creadora


Uso ético en la investigación


Fundamentos Éticos y Normativos para el Uso de IA en Investigación

La Universidad de Lima, a través del Instituto de Investigación Científica (IDIC), establece principios esenciales para un uso responsable de herramientas de IA. Estos fundamentos buscan asegurar el cumplimiento ético, legal y técnico de su aplicación en contextos académicos.

⚖️ Principio de beneficencia

La IA debe aplicarse procurando el mayor bienestar posible, considerando también su impacto ambiental (Bostrom & Yudkowsky, 2014).

⚡ Principio de justicia y equidad

El uso de IA debe garantizar acceso equitativo a resultados y beneficios de investigación (Mehrabi, 2021Mittelstadt, et al., 2016).

✅ Responsabilidad y autonomía

Se reconoce la responsabilidad de autores y participantes, quienes deben mantener control sobre sus acciones (Jobin, 2019).

🔐 Privacidad de los datos

La investigación con IA debe garantizar el anonimato y el consentimiento informado de los datos utilizados (Rocher, 2019).

🌎 Directivas de universidades internacionales sobre el uso de la IA

Estas universidades de prestigio mundial han establecido protocolos rigurosos para el uso ético, transparente y responsable de la inteligencia artificial en contextos académicos y de investigación:

🎓 Harvard

Requiere declarar todo uso de IA. Prohíbe emplear IA pública con datos sensibles. Exige validación humana, protección de la privacidad y cumplimiento de normativas como el GDPR.

🎓 Oxford

Autoriza IA solo para borradores o análisis preliminares. Toda producción automatizada debe verificarse, editarse y validarse por humanos para preservar la autoría intelectual.

🎓 Stanford

Implementa formación ética obligatoria. Prohíbe usar IA no autorizada con información institucional. Regula el manejo responsable de datos desde TI.

🎓 MIT

Su comité de ética evalúa proyectos con IA. Exige documentación de prompts, procedimientos y validación humana para garantizar reproducibilidad y respeto ético.

🎓 Cambridge

Prohíbe IA no explicable en ámbitos clínicos y sociales. Exige transparencia algorítmica, auditorías contra sesgos y protección estricta de datos sensibles.

🎓 Columbia

Insiste en proteger datos confidenciales, patentes y derechos de autor. Impulsa políticas de privacidad y ética en el uso de plataformas de IA.

🎓 Toronto

Aplica leyes como la PIPEDA. Evalúa el impacto social y promueve el uso libre de sesgos y discriminación en proyectos que incorporen IA.

📈 Escenarios validados para el uso de la IA en investigación

Estos son los contextos en los que la aplicación de la inteligencia artificial está justificada desde un enfoque ético y metodológico:

🔬

Entornos experimentales

Cuando se controlan adecuadamente las variables y sujetos de estudio, la IA puede aportar mayor valor que riesgo (Brundage et al., 2018).

📚

Innovación educativa

Enmarcada en modelos pedagógicos formales y con propósito didáctico claro, sin reemplazar la evaluación humana (Luckin, 2018; Pardo et al., 2017; Williamson, 2023).

🔐

Respeto a la privacidad

Debe declararse que no se vulneran datos personales, derechos de autor ni consentimiento informado (Asociación Médica Mundial, 2024; Hugenholtz & Quintais, 2021).

Uso preferente de métodos validados

La IA debe ser alternativa solo cuando no existan metodologías replicables aceptadas en la disciplina (National Academies of Science Engineering and Medicine, 2019).

🧪

Investigación aplicada

Se permite si los modelos tradicionales no cubren adecuadamente el estudio, indicando diseño y sesgos (Hooker, 2021).

📄

Fundamentación verificable

Debe documentarse teoría, datos, prompts y procedimientos usados, asegurando replicabilidad (Bender et al., 2021; Hutson, 2018).

📄 Usos permitidos y no permitidos de la IA en investigación

De acuerdo con el protocolo institucional del IDIC, se detallan las siguientes prácticas autorizadas y restringidas en el contexto académico:

✔ Crear estructuras o guías de redacción

La IA puede facilitar la organización de ideas mediante títulos y subtítulos sin suplantar la escritura humana.

❌ Escribir textos completos

No está permitido delegar la redacción completa de contenido académico a sistemas de IA.

✔ Análisis de datos

La IA puede apoyar en la interpretación de grandes volúmenes de datos o en la elaboración de gráficos y patrones.

❌ Suplantar a un experto en el tema

La IA no debe considerarse fuente experta ni tomar decisiones complejas sin supervisión humana.

✔ Revisión de texto y formato

Puede usarse para corregir ortografía, estilo y formato, sin generar contenido nuevo.

❌ Usar respuestas sin criterios éticos

No se deben emplear respuestas de IA sin verificación, ya que podrían contener sesgos o errores.

✔ Obtener explicaciones sobre conceptos complejos

La IA puede ser una herramienta didáctica de apoyo para facilitar la comprensión de temas difíciles.

❌ Aceptar resultados sin verificarlos

Es obligatorio validar y contrastar toda información provista por sistemas de IA con fuentes académicas fiables.

✔ Identificación de fuentes científicas relevantes

La IA puede apoyar en la selección de literatura pertinente para revisiones sistemáticas.

❌ Tomar contenido de terceros sin atribución

Modificar o reutilizar obras generadas por otros mediante IA sin dar crédito es antiético y puede ser ilegal.