lunes, 6 de marzo de 2023

Quanta Magazine, la mejor revista digital de alta divulgación científica. Sobre todo para quienes están preocupados por la Inteligencia Artificial y la educación. Introd. de Fernando Broncano

 18/2/23

Fernando Broncano R 

Copio aquí unos párrafos de este artículo de Quanta Magazine, la mejor revista digital de alta divulgación científica. Sobre todo para quienes están preocupados por la Inteligencia Artificial y la educación. En unos años se rebajarán mucho las expectativas de las inteligencias artificiales en la Web (no en otros lados) y veremos que lo que hacen bien es establecer una mejor relación humanos-máquinas. Van a ser un rediseño parcial de los buscadores. Y poco más: un instrumento para ayudar a resolver pruebas matemáticas, tal como dice el artículo. (En Lógica, uno de los terrores de primer curso era aprender a formalizar, eso puede ser automatizado). Para los demás, será un buen instrumento para encontrar las mejores recetas de patatas a la riojana sin tener que recorrer la lista completa como ahora:
"El mundo ha aprendido dos cosas en los últimos meses sobre los grandes modelos lingüísticos (LLM), los motores computacionales que impulsan programas como ChatGPT y Dall-E. La primera es que estos modelos parecen tener inteligencia y creatividad humanas. Ofrecen respuestas detalladas y lúcidas a preguntas escritas, o generan imágenes cautivadoras a partir de unas pocas palabras de texto.
La segunda es que no son de fiar. A veces hacen afirmaciones ilógicas, o pronuncian con seguridad falsedades como si fueran hechos.
"Hablan de unicornios, pero luego se olvidan de que tienen un cuerno, o te cuentan una historia y luego cambian los detalles", explica Jason Rute, de IBM Research.
No se trata sólo de fallos, sino que demuestran que a los LLM les cuesta reconocer sus errores, lo que limita su rendimiento. Este problema no es inherente a los sistemas de inteligencia artificial. Los modelos de aprendizaje automático basados en una técnica llamada aprendizaje por refuerzo permiten a los ordenadores aprender de sus errores para convertirse en prodigios en juegos como el ajedrez y el Go. Aunque estos modelos suelen tener una capacidad más limitada, representan un tipo de aprendizaje que los LLM aún no dominan.
"No queremos crear un modelo lingüístico que se limite a hablar como un humano", afirma Yuhuai (Tony) Wu, de Google AI. "Queremos que entienda de qué está hablando".

No hay comentarios: