En mi anterior artículo “Los retos que supone ChatGPT” me extendí sobre las ventajas y riesgos de esta aplicación que se es tan popular últimamente y que ha hecho correr ríos de tinta.
Los Modelos de Lenguaje Grande (LLM por sus siglas en inglés), entre los cuales se encuentra ChatGPT, son una de las aplicaciones que se pueden englobar dentro del concepto de inteligencia artificial (IA), que es mucho más amplio en cuanto a sus posibilidades y que está mucho más presente en nuestras vidas actualmente de lo que nos pensamos.
La inteligencia artificial, tal y como lo define la RAE, es la “disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico”. La actualidad del término queda reflejada en el hecho de que “inteligencia artificial” fue designada por la RAE como palabra del año en 2022.
Cuando en la definición se indica que pueden “ejecutar operaciones comparables a la mente humana” empieza uno a ponerse un poco nervioso, sobre hasta dónde se llegará con esto, en qué medida las máquinas nos van a sustituir, y más cuando uno conoce que, en determinadas actividades, los programas informáticos son capaces de mejorar las capacidades del ser humano. Ya se reportaron en 2002 que había programas capaces de superarnos al ajedrez o traducir de otros idiomas mejor que nosotros (en 2016), retener y usar más datos, así como leer los labios de forma más eficiente, por poner solo algunos ejemplos.
Además, aunque la Inteligencia Artificial empezó a dar sus primeros pasos después de la segunda guerra mundial, la progresión en los últimos años ha sido exponencial debido al uso de una ingente cantidad de datos, al aumento de la capacidad de las máquinas para procesar la información y al desarrollo de nuevos algoritmos más potentes. A algunos les preocupa que, cuando las máquinas “aprendan a aprender” y sean capaces de generar sus propios códigos de programación (lo que de hecho ya se ha empezado a producir), podrían adquirir una autonomía con respecto a nosotros de consecuencias difíciles de saber. Esto lógicamente ha dado lugar ya a magníficos guiones de películas de ciencia ficción.
La realidad es que la IA está ya en nuestras vidas mucho más allá de lo que somos en general conscientes. Ejemplos de ello son la selección de personal en las empresas, el cálculo de riesgos de una póliza de seguros o un préstamo que pedimos al banco, los filtros de mensajes no deseados (spam) de nuestro correo electrónico, los buscadores de internet, los asistentes de voz de nuestro teléfono, la predicción del tiempo, el desarrollo de fármacos, el estudio del ADN y la ayuda en el diagnóstico de enfermedades, así como otras muchas aplicaciones entre las que no quiero olvidar las ya mencionadas de la denominada IA generativa (modelos que generan texto, imágenes, vídeos, música y otros contenidos más complejos como puede ser el diseño de una proteína).
Muchas son las ventajas que tiene la IA ya que, a través de su gran potencia de cálculo y de la enorme base de datos de la que dispone, permite hacer que los procesos sean mucho más eficientes, reduciendo el tiempo necesario para conseguir unos resultados y mecanizando tareas repetitivas y poco creativas para el ser humano, a la vez que reduce la posibilidad de error inherente a todas nuestras acciones.
Así pues permite, entre otras cosas, la toma rápida de decisiones en el sector bursátil, nos indica cuál es el mejor camino para ir en coche hasta nuestro destino, nos da una mejor predicción meteorológica (que tiene enormes implicaciones en la agricultura, navegación aérea y marítima, entre otras), nos facilita una estimación más ajustada de los cultivos más rentables, ayuda a los médicos a hacer mejores diagnósticos, reduce el tiempo de investigación que utilizan los científicos en análisis de datos, acorta los plazos de programación de código que necesitan los informáticos, etc.
No obstante la inteligencia artificial no está exenta de riesgos, que son los que vamos a analizar a continuación.
El primero de ellos es el del sesgo, es decir que las recomendaciones que dé estén condicionadas por la cultura o sistema de creencias y valores de la persona que la ha programado o le ha facilitado los datos a partir de los cuales trabaja. Está demostrado que el 80% de los programadores de estos sistemas son varones y, en muchos casos occidentales de raza blanca.
El sesgo por género está documentado en algunos estudios y es algo a mejorar en algunos programas. También están publicados estudios que tratan sobre cómo la IA discrimina en función de la raza, por ejemplo se cita un algoritmo utilizado para calcular la probabilidad de reincidencia criminal, en la que ésta salía mucho mayor en el caso de la raza negra.
Otro riesgo es el de conceder excesiva credibilidad a las recomendaciones del algoritmo hasta el extremo de que anulen nuestra capacidad crítica y nuestra creatividad. Esto se denomina “sesgo de autoridad tecnológica” y es debido a la cantidad de datos que maneja (muchos más de los que nosotros pudiéramos soñar en analizar) y en la seguridad o rotundidad con la que nos da sus recomendaciones. Por otro lado, el sistema induce a la comodidad de que nos lo den todo hecho y no tengamos que pensar. Personalmente considero que éste es uno de los riesgos mayores que tienen estos algoritmos, ya que nos aleja de algunas de las características más importantes del ser humano como son la libertad y la creatividad.
Relacionado con esto está el de utilizar estas herramientas para el fraude, por ejemplo el de copiar total o parcialmente los textos que nos ofrecen y publicarlos como propios. Al igual que se puede hacer con el material escrito, hay la posibilidad de hacerlo con imágenes, vídeos, código de programación, etc. Hoy en día se puede simular la voz y la imagen de una persona y hacer que diga lo que se nos ocurra, lo cual tiene un enorme peligro de manipulación por intereses políticos o comerciales. No quiero ni pensar en las barbaridades que se pueden cometer teniendo en cuenta además la credibilidad que le damos a las imágenes y a los vídeos.
Al hilo de esto, una polémica importante es la de los derechos de propiedad intelectual. Si una imagen que hemos creado nosotros la utiliza un algoritmo para, modificándola, crear otra ¿deberíamos cobrar derechos de autor?, ¿deberíamos cobrarlos por el hecho de que nuestra imagen o nuestro audio o texto esté en la base de datos del algoritmo?. Todos los artistas a lo largo de la historia se han inspirado en otros maestros anteriores, y aquí tenemos una línea fina entre lo que es copiar, lo que es inspirarse y lo que es homenajear a una obra previa.
Otra pregunta sería si el producto de un algoritmo tiene derechos de propiedad intelectual. A este respecto la Oficina de Derechos de Autor de EEUU afirma que no los tiene al no ser una creación humana (al igual que los animales no tiene derechos de autor).
Recientemente la autoridad italiana de Privacidad de Datos ha prohibido el uso de ChatGPT ya que considera que utiliza datos de forma indiscriminada no respetando las leyes de privacidad. Tanto la agencia española como las autoridades europeas están también estudiando el tema, lo que revela una preocupación por algo que solo hace unos años era impensable.
Un riesgo a no olvidar es el de que se reduzca el número de empleos ya que hay muchos trabajos que podrán ser sustituidos sin mucho problema por máquinas o algoritmos. Esto es así para los trabajos en que una parte importante de la jornada se dedica a tareas administrativas o mecánicas que son repetitivas y fácilmente automatizables. Éste es un hecho que se ha producido en muchas ocasiones a lo largo de la historia y, en particular, en varias ocasiones desde la revolución industrial. Algunos oficios dejan de tener sentido o se convierten en minoritarios, mientras que aparecen otros. Además, los que aparecen nuevos son menos monótonos y más creativos. Los desajustes temporales que provocan estos cambios son un desafío con el que tienen que lidiar nuestros gobernantes.
Existe un peligro asociado a este último y es que, si las autoridades no hacen bien su trabajo, las desigualdades dentro de la sociedad, o entre países, aumenten, ya que solo los más preparados podrán tener éxito en este nuevo mundo que nos viene. Por el contrario, bien gestionado puede ayudar a disminuir las desigualdades.
El reto aquí es el de propiciar la renovación, mediante formación y políticas apropiadas, de una parte importante de la población que pudiera ser sustituida por máquinas más eficaces que ella.
Las autoridades han empezado a tomar conciencia de la importancia de estos algoritmos y de la necesidad de crear cierta regulación a fin de minimizar los riesgos que conllevan. Al igual que en otras áreas de la tecnología, ésta evoluciona a tal rapidez que la legislación va por detrás.
Es loable el esfuerzo de la Unión Europea en publicar en 2022 el “INFORME sobre la inteligencia artificial en la era digital” que fue aprobado en el parlamento europeo y que servirá de base para la primera legislación en el mundo sobre el tema. En España la ley 15/2022 (integral para la igualdad de trato y la no discriminación) contiene la primera mención (un tanto voluntarista) al uso de la inteligencia artificial por las administraciones públicas y las empresas en nuestro país
La inteligencia artificial es un desarrollo tecnológico que, con sus ventajas e inconvenientes, es además inevitable, por lo que lo que mejor podemos hacer es adaptarnos a la nueva situación, aprovechar sus virtudes y trabajar para evitar sus riesgos. Al igual que todas las herramientas, se puede emplear de forma positiva y negativa, y nuestra tarea será conseguir que predominen las positivas.
Desde que empezó la civilización, cada nuevo invento, cada paso que ha dado la humanidad (la agricultura, la escritura, la imprenta, la máquina de vapor) ha supuesto cambios sociales, que no siempre han sido fáciles al principio. A pesar de ello el ser humano vive mejor cada vez si miramos los parámetros básicos (edad media, hambre, tasa de mortalidad infantil, nivel de educación,…).
Esto me permite ser optimista y saber que, con todos los riesgos expuestos de la IA, será una tecnología provechosa para el ser humano.