Ir al contenido principal

Dos de cada tres expertos en IA, partidarios de regular de inmediato los LLM.docx

La IA generativa y los grandes modelos lingüísticos como GPT, BERT o T5 son tendencia clara, pero presentan importantes desafíos relacionados, en su mayoría, con la seguridad y el cumplimiento normativo




Más de la mitad de los encuestados consideran innecesaria una moratoria en el desarrollo de los sistemas de este tipo, si bien abogan por una regulación inmediata por parte de las autoridades
Madrid, 13 de julio de 2023.- Dos de cada 3 expertos en Inteligencia Artificial (IA) son partidarios de una regulación gubernamental inmediata para el desarrollo de los grandes modelos lingüísticos (LLM), si bien en su mayoría no consideran necesaria una moratoria para seguir desarrollando esta tecnología. Así lo refleja el último informe de expert.ai, multinacional líder en inteligencia artificial (IA) para la comprensión del lenguaje natural.

El informe, titulado “Large Language Models: Opportunity, Risk and Paths Forward”, muestra los resultados de una encuesta realizada el pasado mes de abril entre más de 300 expertos en IA de empresas, proveedores tecnológicos y personal académico para identificar los riesgos asociados a la implantación de los LLM en las compañías en materia de sostenibilidad, responsabilidad social y gobernanza (ESG, por sus siglas en inglés)..

“En los últimos años, modelos LLM como GPT, BERT o T5 han demostrado capacidades inimaginables hasta ahora”, explica Elisa Martínez Frade, vicepresidenta de Ventas de expert.ai para Iberia y Latinoamérica. “Sin embargo, también existen desafíos, muchos de ellos directamente relacionados con la gobernanza y el cumplimiento”.

En marzo de 2023, líderes de la industria, investigadores y otros expertos en IA firmaron una carta abierta en la que pedían una "pausa" de seis meses en el desarrollo de IA a gran escala más allá del GPT-4. argumentando que el uso de IA debería ser "transparente, explicable y empíricamente sólido, fomentando la responsabilidad", y que GPT-4 "no cumple ninguno de estos requisitos, ya que es parcial, engañoso y un riesgo para la privacidad y la seguridad pública".

Preguntados sobre esto, más de la mitad de los participantes (52,2%) afirmó que no es necesaria la moratoria de 6 meses en el desarrollo de los LLM, pero más del 70% están a favor de una regulación gubernamental inmediata para lidiar con el uso malicioso de la IA generativa y promover su adopción en las organizaciones.


Principales desafíos

El informe de expert.ai incluye una pregunta específica en cuanto a los principales hándicaps y desafíos  que se encuentran actualmente a la hora de explotar los LLM. Los encuestados consideran aspectos como la falta de veracidad, los sesgos en la interpretación y el manejo de propiedad intelectual como los principales retos a los que se enfrentan a la hora de evolucionar.


La principal preocupación entre los profesionales es la falta de veracidad (69,8%). Un buen ejemplo son las alucinaciones, proceso por el cual el LLM genera texto sin basarse en conocimientos o experiencias del mundo real, lo que le lleva a inventar o fabricar respuestas ficticias o imposibles.

En segundo lugar, los encuestados señalan que los modelos de IA generativa como GPT a menudo presentan una gran falta de precisión, e incluso pueden llegar a presentar como hechos informaciones falsas o sesgadas (67,3%). Forrester Research llama a esto “sinsentidos coherentes”.

Por detrás se coloca la lucha contra las ciberamenazas (phishing, fraude, ingeniería social…), factor señalado por el 61,1% de los encuestados. 

Un 59,3% citó como riesgo el hecho de que muchos LLM están formados en base a grandes franjas de información protegida por derechos de autor, lo cual puede dar lugar a filtraciones.
Otra de las cuestiones clave planteadas en la encuesta es la forma en que el uso de LLMs impactará en la política de gobernanza de la organización, y cómo debe trasladarse a los empleados por lo que respecta a su utilización. La respuesta mayoritaria entre los profesionales de la IA (38,8%) fue que se debe controlar su uso, pero aplicando un cierto grado adicional de libertad, mientras que un 24% indicó que se deben implementar restricciones.

Acerca de expert.ai

Expert.ai convierte el lenguaje en datos para facilitar a las personas la toma de decisiones. Con más de 300 implementaciones probadas de soluciones de procesamiento del lenguaje natural (NLP) en sectores como seguros, servicios financieros y medios, las soluciones de Expert.ai ayudan a los usuarios a automatizar procesos basados en el uso intensivo del lenguaje, proporcionando conclusiones y recomendaciones con las que poder tomar decisiones. Combinando aprendizaje simbólico y automático, el modelo de inteligencia artificial híbrida de Expert.ai ofrece el máximo grado de precisión, explicabilidad y flexibilidad de una forma responsable y sostenible. Para más información, visite https://www.expert.ai/es.