Uso ético de herramientas de IA en investigación social

“¿Deberíamos establecer una nueva regla de vida desde esta noche: siempre tratar de ser un poco más amables de lo necesario?”

(J. M. Barrie, “The Little White Bird”, 1902)
Fotografía: Wikimedia Commons

La ética en el ámbito académico es un aspecto fundamental que guía la conducta de quienes participan en la vida universitaria. Tanto las personas que recién inician su formación en los niveles medio superior y superior, como aquellas con una trayectoria consolidada en investigación y docencia, todas están llamadas a seguir ciertos principios que aseguren la integridad, la honestidad y el respeto en todas sus acciones, en palabras del escritor de cuentos infantiles J. M. Barrie, consiste en “tratar de ser un poco más amables de lo necesario” cuando se realizan labores académicas.

Estos principios no solo orientan las interacciones entre los miembros de la comunidad académica, también guían la manera en que éstos se relacionan con otros sujetos que no forman parte del ámbito universitario, pero que participan en investigaciones, prácticas de campo e intervenciones comunitarias.

En el contexto actual, en el que las plataformas digitales basadas en inteligencia artificial generativa (IA) han sido ofertadas para su uso masivo en la ejecución de infinidad de tareas como el análisis de datos, la búsqueda de referencias, la clasificación de documentos, la creación de contenidos, entre muchos otros, es indispensable adaptar los principios de la ética académica a nuestras coordenadas contextuales de tiempo (año 2024) y espacio (universidades mexicanas).

Este texto es un intento por adaptar dichos principios para el ámbito específico de las ciencias sociales desde la universidad pública. Se centra en el uso –no en el desarrollo– de herramientas basadas en IA para llevar a cabo tareas dentro de dos principales áreas; las interacciones cotidianas dentro del campus (vida académica); y los procesos de investigación social.

IA en la vida académica

La ética no se puede simplificar en la adopción de una postura moralista desde la cual se emiten juicios de valor dicotómicos que califiquen los actos como buenos o malos. En realidad implica una reflexión profunda sobre los efectos y las consecuencias colectivas de las acciones propias.

En el caso de las herramientas de IA, no podemos emitir juicios previos que las simplifiquen como recursos malos o deshonestos que deben evitarse, al contrario, estas herramientas podrían ser importantes aliadas en la investigación y el desarrollo de múltiples actividades académicas, pero es crucial tener en cuenta los posibles efectos de su utilización y asegurarse de usarlas de manera responsable. En este sentido, la perspectiva ética no implica una camisa de fuerza, sino una brújula que orienta nuestro actuar hacia la forma más amable posible.

La Universidad Nacional Autónoma de México (UNAM) posee un “Código de Ética”, en el que se establecen una serie de principios y valores que orientan la conducta de todos sus miembros. Los aspectos enunciados en el Código relacionados con el uso de plataformas digitales basadas en IA son; la integridad y honestidad; la autoría intelectual; la responsabilidad social y ambiental; la honestidad en las evaluaciones; y la privacidad y protección de la información personal (Código de Ética de la Universidad Nacional Autónoma de México, 2015).

Integridad y honestidad

El conocimiento es acumulativo, las investigaciones parten y se nutren de ideas y resultados de otras personas que deben ser reconocidas. Uno de los principios articuladores de las comunidades científicas es la atribución del trabajo intelectual, por tanto, la acción de plagiar implica un despojo intelectual efectuado para un beneficio o lucro individual, una práctica considerada deshonesta en todos los espacios científicos y académicos.

El uso de bots conversacionales (chatbots) para la redacción de argumentos, párrafos, capítulos o artículos, por sí mismo no constituye plagio, sin embargo se puede incurrir en la falta de rigor científico si no se explicita y se cita adecuadamente el origen de las ideas. Por tal motivo, es recomendable señalar de dónde fueron obtenidas dichas ideas, incluso si éstas son el resultado de una “conversación” o solicitud de información de una persona con un chatbot.

Hasta el momento es común que los chatbots generen autores y obras ficticias, por tal motivo se debe tener un especial cuidado cuando son utilizados para obtener referencias bibliográficas. También existe un enorme sesgo en las respuestas generadas desde chatbots, ya que están sobrerrepresentadas las universidades y los autores (la mayoría hombres) del norte global, así como sus temáticas, teorías, enfoques, y técnicas de investigación.

Por otro lado, se ha observado que las herramientas de IA permiten generar contenidos en múltiples formatos que pueden hacerse pasar por documentos fidedignos (deepfake), por tanto es indispensable verificar la información para identificar los documentos digitales fiables. Asimismo, en el trabajo con datos predictivos generados por IA debe considerarse los múltiples sesgos de los modelos de entrenamiento.

Reconocimiento y protección de la autoría intelectual

Las herramientas de IA que actualmente tienen mayor disponibilidad en el mercado, requieren que una persona usuaria realice una petición (entrada de datos, instrucciones, descripciones, preguntas, etc) para obtener una respuesta (numérica, textual, visual o sonora). El resultado dependerá de la petición, pero también de un complejo entramado de algoritmos-modelos de aprendizaje automático y consulta de bases de datos.

La IA pone en cuestión la noción tradicional de autoría y de propiedad intelectual privada. Por un lado están los algoritmos y modelos (la mayoría de los cuales tienen propietarios privados), por otro lado están las enormes bases de datos (algunas públicas pero muchas de ellas privadas) y finalmente está la consulta del usuario, quien obtendrá un resultado diferente según la petición realizada.

Si bien la autoría dependerá de múltiples factores (tipo de contenido generado, plataforma usada, base de datos a la que se conectó, tipo de instrucción, etc.), en investigación, docencia y evaluación, se recomienda hacer explícito cuáles fueron las herramientas de IA utilizadas y en qué consistió su empleo.

Además, se debe tener mucho cuidado con las políticas de uso de cada una de las herramientas de IA propietarias ya que su empleo puede implicar ceder derechos morales y/o patrimoniales a las corporaciones dueñas de las plataformas. Esta situación puede ir en contra de la titularidad de las obras generadas, la cual debe pertenecer a la Universidad.

Responsabilidad social y ambiental

Los aspectos relacionados directamente con la responsabilidad social se presentan más adelante en el apartado que aborda las actividades de investigación. Sin embargo, en materia ambiental existe un importante impacto que pocas veces es considerado por las personas usuarias de las plataformas digitales.

En principio, la producción de todos los componentes de las infraestructuras computacionales que soportan los servicios digitales tiene un gran impacto en el uso y explotación de recursos naturales y en la contaminación del medio ambiente y aunado a esto, su funcionamiento requiere una enorme cantidad de recursos naturales para proveer energía eléctrica y para el enfriamiento de los procesadores.

En el caso de las plataformas digitales basadas en IA, el impacto ambiental se multiplica exponencialmente debido a que los algoritmos y modelos requieren una cantidad gigantesca de recursos informáticos durante su entrenamiento y su funcionamiento pero, además, los sistemas de recopilación y almacenamiento de información en las enormes bases de datos exigen una enorme infraestructura que consume muchísimos recursos.

Desde una perspectiva ética, el impacto ambiental de las grandes empresas tecnológicas no debe ignorarse y tiene que ser uno de los aspectos a considerar cuando se plantea el uso de herramientas de IA en una investigación.

Objetividad, honestidad e imparcialidad en las evaluaciones académicas

Como en otros casos, se debe tener en cuenta que las herramientas de IA suelen tener sesgos importantes al momento de su utilización en la evaluación del desempeño de las personas.

En el caso de su uso para la evaluación de estudiantes, personal académico o personal administrativo, se debe tener conciencia de que existen información contextual que no se especifica en informes, exámenes o currículums y por tanto la plataforma no tomará en cuenta. Además es importante asegurarse de que los modelos de aprendizaje no estén sesgados o influenciados por prejuicios o intereses particulares.

Privacidad y protección de la información personal

En el ámbito académico, la protección de la información personal es el punto crítico del uso de herramientas basadas en IA ya que el procesamiento de los datos personales de los usuarios es el corazón del modelo de negocios de las grandes empresas tecnológicas, incluyendo las de IA.

Si se toma como referencia el caso de las grandes empresas tecnológicas como Google/Alphabet y Meta, se puede inferir que las principales ganancias de Open AI no provienen de la suscripción de usuarios premium, sino de la recopilación, análisis, segmentación, puesta en relación y monetización de los datos de sus usuarios. Pero no solamente se trata de los datos que introducimos en formato de pregunta o instrucción en un chatbot, sino los vinculados a la dirección IP, el navegador, la ubicación, la cuenta de correo con la iniciamos sesión, entre muchos otros.

Por tanto, es indispensable un entendimiento más detallado y crítico de cómo son usados nuestros datos, tanto aquellos que introducimos, y que en investigación suelen ser datos de terceros, como los que no introducimos conscientemente pero que son recopilados por las plataformas.

Implicaciones Éticas del Uso de Herramientas de IA en la Investigación

Además de los aspectos relacionados con la vida académica, el uso de herramientas de IA en la investigación plantea una serie de implicaciones éticas que deben ser abordadas con responsabilidad durante todas las etapas del proceso investigativo, desde la recopilación de datos hasta la difusión de resultados.

En investigación de ciencias sociales, Robert Hall (2017) define cuatro principios básicos que pueden guiar un actuar ético frente a las personas con las que se lleva a cabo una investigación, los cuales son: integridad, dignidad, privacidad y bienestar social.

Principio de integridad

Hall señala que la investigación social debe respetar la integridad de los participantes para no poner en riesgo su salud física o mental innecesariamente. Este principio debe ser transversal en las diversas etapas del proceso y con las diferentes personas que intervienen en él, desde los informantes hasta los estudiantes y las personas que llevan a cabo tareas auxiliares.

En la mayoría de los casos, el uso de herramientas basadas en IA no supone un daño directo en la integridad física de las personas que participan en una investigación, sin embargo, sí se puede generar un daño emocional cuando cierta información sensible de las personas que participan en una investigación es expuesta por un descuido en el tratamiento de los datos personales de las personas informantes. Por tanto, es indispensable contar con protocolos que permitan cuidar la dignidad, la privacidad y el bienestar social.

Principio de dignidad

Según Hall durante el desarrollo de una investigación en ciencias sociales se debe respetar la dignidad de los participantes para lo cual se debe garantizar que otorguen su consentimiento informado. Además de los procedimientos generales para explicar los fines y las implicaciones de la investigación, también se debe hacer explícito a las personas que participarán en una investigación, cuáles herramientas de IA serán usadas y para qué tareas.

Pero suele suceder que las personas investigadoras no conocen muy bien las implicaciones arriba expuestas sobre el uso de herramientas de IA, lo que las incapacita para informar a las participantes de una investigación. Por tanto, la asesoría de una experta es indispensable para identificar con precisión las posibles consecuencias del uso de herramientas de IA para la recopilación, manejo y procesamiento de datos de quienes participan en una investigación.

Principio de privacidad

En sintonía con lo estipulado por el Código de ética de la UNAM, la privacidad es uno de los principios que Hall identifica para ser considerado durante una investigación social. Aunado a lo señalado líneas arriba, si no se tiene certeza de que los datos personales de las personas informantes serán protegidos, no se recomienda el uso plataformas de IA comerciales para el procesamiento de este tipo de información.

Y es necesario especificar que los datos personales no son únicamente textuales (nombres, domicilios, edades), también se considera dato personal la fotografía del rostro de una persona o la información sensible contenida en formato de audio.

Por otro lado se debe considerar que, además del procesamiento y análisis de información, se debe tener mucho cuidado cuando se elaboran los productos finales de difusión en los que se explicite nombres de personas, direcciones o se describan actividades sensibles.

Principio de bienestar social

Este principio, que también es incluido en el Código de ética de la UNAM, está centrado en la valoración de la pertinencia de implementar técnicas de análisis que impliquen el uso de herramientas de IA en relación con las implicaciones sociales que los resultados de dicha investigación pudieran generar.

En este sentido son pertinentes cuestionamientos sobre la relación entre posibles efectos no deseados al usar estas plataformas y los posibles beneficios del estudio ¿El uso de IA tendrá un beneficio significativo para el resultado de la investigación? ¿conozco cuáles son las implicaciones de su uso? ¿quién se beneficia más, el grupo o comunidad estudiada o la persona que investiga?

Acciones Prácticas para un Uso Ético de Herramientas de IA

Este texto, que fue un modesto intento de relacionar los principios éticos generales para el trabajo académico y la investigación social con el uso de las actuales herramientas ofertadas masivamente basadas en Inteligencia Artificial, solo dibuja un panorama muy general que debe ser detallado según la disciplina, el enfoque teórico metodológico y la cantidad y características de participantes de una investigación.

Si bien a lo largo del texto ya se han señalado aspectos críticos que deben ser considerados, no está de más subrayar las acciones mínimas que pueden ser implementadas cuando se utilizan herramientas basadas en IA durante una investigación social.

Un primer aspecto es la obtención de un consentimiento informado, en el que se explicite el uso de IA, por parte de todos los participantes en la investigación. Dicho consentimiento debe entenderse como una brújula ética no como un trámite burocrático, por tanto es indispensable contemplar; la capacidad de decidir de las personas, como en el caso de las infancias o las que padecen alguna enfermedad; su libertad de decisión, sin coacción o engaño; y otorgarles la información adecuada sobre el procedimiento y uso de IA, los riesgos, los beneficios, el propósito de la investigación y siempre dejar claro que tienen derecho de participar o no.

El cuidado de las personas debe hacerse en todas las etapas de la investigación: desde el diseño, pasando por la recopilación de información, el análisis de datos, hasta la creación de contenidos de comunicación científica, como reportes, artículos o libros.

Una forma de sortear los problemas de privacidad y protección de datos es a partir del uso de herramientas de IA desarrolladas desde el paradigma del software libre. Asimismo, se pueden usar flujos de trabajo en modo local y de esta manera limitar la transferencia de datos a terceros.

Cuando sea necesario trabajar con una plataforma comercial se debe; tener cuidado de no proporcionar datos innecesarios; y analizar cuidadosamente los términos, condiciones y políticas de uso de las diferentes herramientas y plataformas. Asimismo, es importante priorizar la consulta de bases de datos no lucrativas que fomentan la diversidad y colaborar con su desarrollo, como el proyecto Wikidata de la Fundación Wikimedia.

Antes de ser inquisidores y prohibir el uso de herramientas específicas, es indispensable abrir espacios de reflexión sobre el uso ético de herramientas de IA con colegas y estudiantes, así como buscar apoyo técnico en las áreas de cómputo, centros especializados en ingeniería de datos y organizaciones de la sociedad civil. Asimismo se debe voltear a ver a los diferentes comités de ética de cada dependencia que pueden configurarse como espacios de orientación importante, antes de convertirse en tribunales, son los principales lugares donde se pueden resolver dudas.

Parafraseando la cita de Barrie con la que inicia este texto, “deberíamos establecer una nueva regla de vida desde este día: cuidar a las personas con las que investigamos”, informantes, encuestadas, voluntarias, compañeras, estudiantes, asistentes, administradoras, tutoras, trabajadoras administrativas, entre muchas más.

Materiales citados

Código de Ética de la Universidad Nacional Autónoma de México (2015). https://cuetica.unam.mx/sites/default/files/document/codigo-etica-unam.pdf

Hall, R. T. (2017). Ética de la investigación social (Segunda). Universidad Autónoma de Querétaro y Comisión Nacional de Bioética.

Esta entrada tiene 2 comentarios

  1. Claudia

    Es vital reflexionar sobre cómo estas tecnologías pueden influir en la objetividad de los estudios y garantizar que se utilicen de manera responsable.

  2. YuumGo

    No debemos confiarnos de ningún chatbot o de ninguna IA, siempre debe existir una verificación humana para desestimar cualquier error o falta de coherencia. Al día de hoy, ninguna IA es confiable al 100%.

Deja un comentario

six × one =