En los sistemas de Inteligencia Artificial también se cumple
el dicho de 'somos lo que comemos', algo que impacta de lleno en sus dos
principales vertientes desarrollo: algoritmos de predicción y modelos de
lenguaje.
Por un
lado, los algoritmos que trabajan con enormes cantidades de información para,
por ejemplo, la predicción de enfermedades o la ayuda al diagnóstico,
pueden recibir datos sesgados que no sean representativos de toda la
población, lo cual limitaría su uso y produciría predicciones incorrectas
cuando se apliquen sobre personas para las que no han sido entrenados (un ejemplo).
Y por otro,
los nuevos modelos grandes de lenguaje (como ChatGPT) han sido
entrenados a partir de todos los contenidos que están circulando por la red,
por lo que podríamos decir que sus resultados actuales son lo más humano que
nos vamos a encontrar. Porque se da la circunstancia de que muchos de los
contenidos que se están volcando ahora mismo en Internet, están parcial (o
incluso totalmente) generados por sistemas de inteligencia artificial, algo
que, sin ninguna duda, va a ir aumentando conforme estas herramientas sean
masivamente adoptadas.
Y esto nos
lleva a un concepto que algunos autores han bautizado como el Aprendizaje incestuoso. Se refiere al resultado de que
estos modelos de lenguaje están empezando a aprender a partir de contenidos
generados por ellos mismos. Contenidos que son menos originales y humanos, de
peor calidad y en algunos casos repletos de fabulaciones y sesgos. Esto sin
duda nos llevará hacia unos sistemas degradados, repletos de información falsa
y no validada por humanos.
Todo ello
nos conduce al último gran problema, que tiene mucho que ver con la confianza
que los humanos depositamos en una tecnología que tradicionalmente nos ha
solucionado muchas tareas en nuestra vida. Teniendo en cuenta además que estos
sistemas son auténticos generadores de empatía (que hace que incluso los
pacientes prefieran las respuestas de la IA), será muy difícil que
cuestionemos la información emitida por una fuente en la que ya confiamos y que
nos trata con aparente respeto y empatía.
En
definitiva, los sistemas de IA, con su capacidad para generar empatía y
respuestas aparentemente válidas, pueden llevarnos a aceptar sus
pronósticos y recomendaciones sin cuestionamiento. Esta confianza excesiva,
combinada con la proliferación de información ‘incestuosa’ generada por estos
sistemas, podría además perpetuar la propagación de desinformación y sesgos.
Para
contrarrestar todos estos problemas, es crucial promover la transparencia y
la responsabilidad en el desarrollo y uso de la IA. Los diseñadores y
desarrolladores de estos sistemas deben trabajar activamente para mitigar los
sesgos en los datos y los algoritmos, garantizando que los sistemas de IA sean
éticos y equitativos.
Además,
ahora más que nunca es fundamental fomentar la alfabetización digital y la
capacidad crítica entre la población, muy especialmente en el ámbito de la
salud, para que puedan aprender a discernir entre información confiable y
falsa.
Por: José M
Cepeda Diez
Fuente: Salud
Conectada
No hay comentarios.:
Publicar un comentario