Estudio revela creciente falta de precisión en los modelos avanzados de IA
Estudio de la Universitat Politècnica de València y Cambridge revela que los modelos avanzados de IA, como GPT-4, son menos fiables que versiones anteriores.
Un estudio realizado por la Universitat Politècnica de València (UPV) y la Universidad de Cambridge ha advertido sobre una tendencia preocupante: los modelos de inteligencia artificial (IA) más recientes, como GPT-4, muestran una menor fiabilidad en comparación con versiones anteriores como GPT-3.
La investigación, publicada este miércoles en la revista Nature, señala que aunque los avances en IA han popularizado el uso de modelos de lenguaje, no cumplen con las expectativas de precisión de los usuarios. El estudio fue llevado a cabo por el Instituto VRAIN de la UPV, en colaboración con la Universidad de Cambridge.
El equipo de la UPV formó parte del ‘red team’ de GPT-4, encargado de identificar fallos y evaluar posibles riesgos. Según Hernández-Orallo, uno de los puntos críticos es que los modelos fallan en tareas que los humanos perciben como simples, pero a veces resuelven problemas más complejos, creando una discrepancia en las expectativas.
Los investigadores concluyen que los modelos más avanzados no ofrecen una "zona segura" de fiabilidad absoluta, siendo propensos a errores incluso en tareas sencillas. Yael Moros Daval, miembro del equipo, destaca que este fenómeno afecta no solo a GPT, sino también a otros modelos como LLaMA y BLOOM, planteando desafíos para aplicaciones de alto riesgo.