Decir que la IA ha supuesto una gran revolución para los que nos dedicamos a la tecnología es decir poco. En nuestro caso, nos ha cambiado hasta la forma de trabajar, e incluso hemos lanzado un producto propio basado en IA. Pero su impacto no siempre es positivo y puede afectar a muchas otras profesiones, ámbitos y sectores.

Desde Lostium queremos reflexionar sobre las implicaciones del uso de IA en nuestro trabajo y en los proyectos de nuestros clientes, de forma que podamos hacer un uso lo más ético posible de estas tecnologías y siendo conocedores al menos de las repercusiones implícitas de su uso, para neutralizar o minimizar sus efectos negativos en la medida de lo posible.

La visión optimista

Cuando hablamos de IA, estamos englobando un conjunto enorme de tecnologías bajo un mismo término. Con ayuda de IA podemos hacer cosas tan dispares como crear o manipular imágenes, comprender y generar nuevos textos y documentos, obtener resúmenes y transcripciones de audios o vídeos, analizar datos, crear avatares digitales, usar voces sintéticas a partir de textos, diagnosticar enfermedades, controlar máquinas autónomas... y cientos de cosas más. Obviamente, no todos los usos y aplicaciones tienen las mismas repercusiones y consecuencias.

En nuestro caso ya usamos la inteligencia artificial en nuestro día a día, por lo que sería absurdo mantener una posición muy crítica al respecto. Algunas herramientas y tecnologías que nos acompañan diariamente son:

  • Copilots a la hora de programar, que básicamente consisten en una ayuda asistida por IA que te permite ser mucho más productivo y eficiente a la hora de generar código.
  • ChatGPT y Google Bard para todo tipo de ayudas a la hora de generar contenidos, desde esqueletos de documentos, elaboración de esquemas, resúmenes o asistencia con traducciones o chequeos gramaticales en otros idiomas.
  • APIs de voz y TTS (Text-to-Speech) para la generación de contenidos en audio. Hemos sustituido mucho tiempo de lectura por la escucha de contenidos y artículos a modo de podcast.
  • LangChain y APIs de OpenAI para la creación y el desarrollo de nuevas aplicaciones basadas en modelos de lenguaje con fuentes de datos propias.

Por todo ello, en primer lugar queremos destacar y reconocer las innumerables ventajas que nos ofrece la IA al incorporarla en los flujos y proyectos de nuestra empresa. Por enumerar algunas de ellas: la mejora en la eficiencia y la productividad en nuestros trabajos diarios, la asistencia digital en trabajos repetitivos (lo cual odiamos especialmente), la mejora de experiencia de los clientes y/o usuarios, la mejora en el análisis e interpretación de datos, asistencia y mejora en procesos creativos, posibilidad de ofrecer una mayor personalización... Por no hablar de los nuevos descubrimientos y desarrollos que surgirán en los próximos tiempos, dado el crecimiento exponencial de los avances en la materia.

A pesar de que este artículo se centrará en algunos inconvenientes y problemáticas que trae consigo la inteligencia artificial, no deja de ser un ejercicio interno en el que, lejos de pretender subirnos de forma irreflexiva o inconsciente al tren de la IA, queremos reflexionar sobre las implicaciones de adoptar y desarrollar proyectos con este nuevo conjunto de tecnologías y cómo hacerlo de forma más ética y consciente con el resto.

Consideraciones negativas de la IA

Vamos a hacer un repaso y a reflexionar sobre algunos de los problemas asociados a la IA que pueden afectar, potencialmente y en distinta medida, a los trabajos que realizamos en el estudio, presentes y futuros:

Ilustración robot disfrazado de ladrón

Propiedad Intelectual

Actualmente existe un problema moral, pero sobre todo legal, y al que no se ha hecho frente aún, con la propiedad de los datasets con los que se entrenan los sistemas de inteligencia artificial. Especialmente los que realizan manipulación de imágenes, ilustraciones y fotografías, pero extensible también a vídeos, textos o incluso voz.

Debería existir una regulación que contemple esto y pida permiso de forma explícita (opt-in) y remunere a los artistas por el uso de sus trabajos para el entrenamiento de las IAs. Aunque en la actualidad el enfoque se centra en la posibilidad de hacer opt-out para que no se puedan usar con este fin, no es la solución idónea ya que por defecto se debería solicitar permiso antes de incorporar contenido a un dataset.

Es evidente, viendo los resultados de muchos de estos motores de IA que, hasta la fecha al menos, han sido entrenados con imágenes obtenidas sin permiso expreso de los ilustradores a los que pertenecen. Si alguna vez has usado un prompt de generación de imagen con la apostilla "en el estilo de..." con cualquier ilustrador o pintor que cuente con cierto reconocimiento a continuación, sabrás de lo que hablamos. Y estamos prácticamente seguros de que el artista referenciado no ha cedido sus trabajos para el entrenamiento de IAs, ni ha sido remunerado para entrenar la IA en cuestión.

Nota para ilustradores

Existe una herramienta online, haveibeentrained.com, que permite comprobar si tus imágenes han sido usadas para entrenar IAs, y permite hacer opt-out para dejar patente que no se permite su uso, con la intención de que, en un futuro, todas las compañías que usan estos datasets consulten y respeten la decisión de no usar estas imágenes. Recientemente Stable Diffusion ha anunciado que comenzaría a hacerlo, aunque es la única y tampoco hay garantías de que esto se respete en el futuro:

Estemos o no de acuerdo con lo anterior, hoy en día una IA no puede igualar el valor añadido que aporta un profesional de la ilustración a los intangibles del proyecto, la modulación del tono, la profundidad, conexión emocional, y las perspectivas y matices únicos propios del contexto social o cultural al que pertenece. Una IA por su propia naturaleza no puede llegar a contemplar estos aspectos o, de hacerlo, se encontrarían totalmente sesgados por su propio diseño.

A todo esto, podemos sumar otras problemáticas específicas de la generación de nuevos contenidos a través de IAs, y que aún están pendientes de regulación:

  • Propiedad de nuevos trabajos generados por IA.
  • Uso de marcas registradas.
  • Licenciamiento.
  • Privacidad y derechos cuando aparecen personas representadas.

Un melón importante el de la propiedad intelectual, que es necesario abrir más pronto que tarde para poder legitimar ciertos usos y herramientas generativas.

Ilustración robot con sombrero de papel de aluminio y ojos disparatados

Carencia de fiabilidad

Las decisiones que toma la IA para la generación de sus diferentes outputs y la forma en la que lo hace, son complejas de explicar incluso para expertos en la materia. Esto tiene implicaciones en cuanto a la confianza que podemos depositar en las decisiones tomadas por una IA.

Esta forma de tomar decisiones y de ofrecer las respuestas inherente sobre todo a los LLMs (Large Language Models), hace que en ocasiones nos ofrezcan respuestas erróneas o completamente inventadas, pero formuladas con la misma seguridad y certidumbre que una respuesta veraz y correcta. Es lo que se conoce como alucinaciones o hallucinations en inglés.

Debido a este fenómeno, resulta muy delicado poner sistemas LLMs en producción en los que la veracidad de la respuesta resulte crítica. Aunque se estén investigando mecanismos para mitigar estas alucinaciones, son un fenómeno complejo que aún no se comprende completamente y, a día de hoy, son imposibles de evitar.

Ilustración de robot con aspecto de Hitler y un sello de Incel Inside

Sesgo de los algoritmos

Este sesgo puede provenir de IAs entrenadas con datos sesgados o porque el propio diseño de la IA o sus algoritmos lo están.

Los sesgos pueden dar lugar a discriminación o resultados discriminatorios, especialmente contra minorías o grupos no presentes o con menor representación en los datasets utilizados. Por ejemplo, si un dataset para su uso en una aplicación de recursos humanos contiene mayoritariamente CVs de hombres, la IA va a favorecer su selección frente a las mujeres.

Además, estos sesgos pueden llevar a la IA a recrear perjuicios de representación (representational harms en inglés), estereotipos o clichés de determinadas razas, religiones, etnias, géneros o minorías.

Y por último, existen ciertas preocupaciones debido a este sesgo implícito de las IAs y la imposibilidad de incorporar cuestiones éticas o morales en los propios algoritmos y que tenemos que tener en cuenta a la hora de plantear futuros usos, los públicos objetivos a los que van dirigidos, la sensibilidad de los datos, etc.

Ilustración de robot rodeado de sensores láser rojo

Riesgos de seguridad

Existen ciertos riesgos de seguridad implícitos al uso de las IAs que, aunque pueden y deben ser mitigados, no pueden evitarse completamente:

  • Filtración de información secreta o confidencial. Un sistema basado en IA puede almacenar y procesar enormes cantidades de datos, entre ellos muchos que pueden ser confidenciales o estratégicos para la empresa, datos médicos, personales, financieros... Mediante técnicas de hacking como el prompt injection attack, un usuario malintencionado podría conseguir que la IA revele dichos datos aunque inicialmente el algoritmo esté instruido para no hacerlo.
  • Control. Dada la complejidad intrínseca de los sistemas de IA, y la dificultad para comprender cómo funcionan dichos sistemas, éstos son difíciles de controlar, lo cual dificulta también la toma de medidas para mitigar los riesgos asociados.
  • Robo de propiedad intelectual y robo de identidad. Además de ser entrenada con datasets de dudosa procedencia, una IA podría ser manipulada para robar propiedad intelectual, algoritmos de terceros o secretos comerciales, así como para impersonar a usuarios para realizar operaciones fraudulentas. Un ejemplo de esto último lo hemos visto recientemente con la clonación de voces vía telefónica para la contratación de servicios.
Ilustración de robot disfrazado de pirata

Potencial uso malintencionado

Aunque es algo que no haríamos en nuestro estudio, nunca está de más conocer su existencia. Y es que el potencial de la IA en manos equivocadas ofrece la posibilidad de ser usado para el mal. La irrupción de determinadas tecnologías basadas en IA está siendo aprovechada por determinados grupos para la manipulación de información, propagación de fake news, etc.

Algunas de las formas en las que se lleva esto a cabo son:

  • Creación de deepfakes. Un deepfake es un video falso que se crea utilizando técnicas de IA como el deep learning para manipular el rostro de una persona en un video existente. Los deepfakes se pueden utilizar para hacer que una persona parezca decir o hacer algo que nunca dijo o hizo. Pueden ser utilizados con fines maliciosos, para difundir desinformación o dañar la reputación de alguien.
  • Manipulación de imágenes. Cada vez resulta más sencillo gracias a los avances de la IA y cada vez será más difícil de detectar si una imagen ha sido manipulada.
  • Propagación de desinformación. Ya sea de forma consciente y premeditada o de forma no intencionada debido a las alucinaciones y el contenido inventado que pueden llegar a crear las IAs tal y como hemos visto anteriormente.
  • Daños reputacionales. La combinación de todos estos factores pueden ser usados para causar desprestigio y erosión de la imagen pública de una persona o institución.

¿Y cuál es nuestra posición al respecto?

Desde nuestro punto de vista, creemos que no existe un único posicionamiento válido para todos y cada uno de los diferentes usos englobados bajo el término "inteligencia artificial". Hay usos con los que no estamos de acuerdo por sus implicaciones éticas y morales. Otros, en los que simplemente hay que tener en cuenta la naturaleza del proyecto y lo sensibles que pueden ser los datos para saber si es conveniente o no hacer uso de tecnologías basadas en IA. Pero es innegable que en muchos otros campos la aparición de las IAs supondrá un antes y un después de cómo trabajamos o cómo realizamos determinadas tareas.

Aunque experimentamos continuamente con imágenes generativas y nos apoyamos en algunas de estas herramientas para nuestro trabajo, optamos por no usar ilustraciones generadas por IAs entrenadas por terceros como artes finales en nuestros proyectos, en sustitución del trabajo creativo que aportaría un ilustrador.

A pesar de que no solemos contar con grandes presupuestos, nos limitamos a usar imágenes generativas como herramienta para la creación de nuestras propias ilustraciones, para la creación de bocetos, en la creación de propuestas o para ilustrar maquetas o documentos internos, para obtener ejemplos rápidos que puedan servir de inspiración de los estilos a desarrollar, en la creación de moodboards para clientes o para la generación de composiciones o poses para nuestras propias ilustraciones. Todas estas cosas las hacíamos ya anteriormente realizando búsquedas de imágenes en internet, Google images, Pinterest o en otros lugares especializados.

Para otros usos y proyectos concretos, las IAs de manipulación de imágenes pueden aportar un valor incuestionable. Por ejemplo, el uso de IAs para la modificación de imágenes de usuario o de las que somos propietarios, para realizar trabajos de manipulación repetitivos que normalmente se llevarían a cabo manualmente a través de herramientas de edición o para la generación vía programación de variantes y modificaciones sobre imágenes propias (eliminación de backgrounds, recortes inteligentes, etc).

En cuanto al resto de cuestiones que hemos tratado en el artículo, nos regimos por lo que dicta el sentido común:

  • Evitar el uso de LLMs cuando la veracidad de los resultados que arroja una IA es de vital importancia para el proyecto y no pueda soportar alucinaciones.
  • Ser extremadamente precavidos cuando la naturaleza del proyecto pueda favorecer que el sesgo implícito de la IA pueda inducir a presentar a determinadas comunidades, grupos o minorías de forma distorsionada, discriminatoria o mostrando perjuicios de representación, así como información sensible que pueda herir u ofender a otros grupos o comunidades.
  • Verificar siempre que no se puedan usar los resultados obtenidos de forma maliciosa, para dañar la reputación de terceros, extender desinformación o propagar fake news.
  • Aunque en temas de seguridad seamos conscientes de que ésta nunca será absoluta, hacer doble comprobación de que el sistema es robusto y seguro, de modo que se evite el filtrado de información sensible o sea susceptible a ataques de prompt injection o similares.

De lo que no nos cabe duda es de que nos esperan unos años muy movidos e interesantes en este campo. Y desde nuestro estudio, desde el momento en que empezamos a desarrollar proyectos integrando distintos sistemas de IA, nos gustaría formar parte y contribuir a ofrecer una visión optimista, pero también crítica y justa de estas tecnologías y sus implicaciones.

Si este texto, además de para ordenar nuestras ideas, te ha ayudado a reflexionar sobre los usos y repercusiones de las IAs o a descubrir algún aspecto que desconocías y que te resultará de utilidad en el futuro, nos damos por satisfechos. Si además estás dispuesto a compartirlo con nosotros o comentar cualquier otro aspecto de lo que hemos planteado, estaremos encantados de escucharte. Estamos aquí para aprender.