Forbes México.
¿Será que la inteligencia artificial no sabe pensar?
Uno de los grandes temores que enfrenta alguna parte de la Humanidad es imaginar que las máquinas superarán al ser humano. La preocupación es pertinente porque a nadie le gustaría estar inmerso en una telenovela de ciencia ficción en la que la trama va de máquinas supremacistas aplastando el alma de los seres que las inventaron. Parece que eso no sucederá. De acuerdo con investigadores de Apple, acaban de demostrar que los bots de Inteligencia Artificial no pueden pensar y posiblemente, nunca lo harán.
De acuerdo con Michael Hiltzik, columnista del Angeles Times, el equipo de Apple encontró “caídas catastróficas de rendimiento” en modelos de inteligencia artificial cuando intentaron analizar problemas matemáticos simples escritos en forma de ensayo. Los sistemas encargados de resolver la pregunta a menudo no entendían los datos que se le presentaban, no lograban descifrar un simple problema de matemáticas de un libro de texto de educación primaria.
Es curioso, pero la verdad, se siente tranquilidad al enterarse de que los escolares humanos, —de acuerdo a lo que postularon los investigadores de Apple—, son mucho mejores para detectar la diferencia entre la información relevante y las opiniones intrascendentes. Parece que nos topamos con que la Inteligencia Artificial puede con lo complejo y no sabe interpretar lo sencillo.
Los hallazgos del equipo de investigadores de Apple se publicaron en octubre pasado en un documento técnico que se puede consultar y ha atraído la atención en los laboratorios de IA, del ámbito académico, la prensa especializada, no sólo porque los resultados están bien documentados, sino también porque los investigadores trabajan para una de las principales empresas de consumo de alta tecnología.
Entonces, lo que ellos dicen es relevante dado que les afecta en primera persona y nadie se dispara al pie por gusto. Parece que los sistemas de IA se han comercializado como confiables, e “inteligentes” no son a prueba de balas y requieren de cuidado en su manejo.
De hecho, la conclusión de Apple coincide con estudios anteriores que han encontrado que los grandes modelos de lenguaje, o LLM, en realidad no “piensan” sino que coinciden con los patrones del lenguaje en los materiales que se les han suministrado como parte de su “entrenamiento”. Cuando se trata de razonamiento abstracto que es un atributo clave de la inteligencia humana, en palabras de Melanie Mitchell, experta en cognición e inteligencia del Instituto Santa Fe, los modelos se quedan cortos.
En el ámbito académico se ha podido verificar y corroborar lo sustentado por el grupo investigador de Apple. La cuestión de si los LLM actuales sean realmente capaces de un verdadero razonamiento lógico sigue siendo un importante foco de investigación. Si bien algunos estudios destacan capacidades impresionantes, un examen más detallado revela limitaciones sustanciales.
Los profesores a todos los niveles académicos han detectado ciertos patrones repetitivos que revelan tareas escritas por bots de inteligencia artificial. Después de someter a los bots GPT a una serie de acertijos de analogía, la conclusión es que todavía queda una gran brecha en el razonamiento abstracto básico entre los humanos y los sistemas de IA de última generación.
Esto es importante porque los LLM como GPT son la base de los productos de IA que han captado la atención del público. Pero los LLM evaluados por el equipo de Apple fueron engañados constantemente por los patrones de lenguaje en los que fueron entrenados. Por ejemplo, según Michael Hiltzik, los investigadores de Apple se propusieron responder a la pregunta: “¿Estos modelos realmente entienden conceptos matemáticos?” La respuesta es no. El profesor Farajtabar también se pregunta si las deficiencias que identificaron se pueden solucionar fácilmente, y su respuesta también es no.
La investigación de Apple, junto con otros hallazgos sobre las limitaciones de las limitaciones cogitativas de los bots de IA, es un correctivo muy necesario a los argumentos de venta provenientes de las empresas que venden sus modelos y sistemas de IA, incluidos OpenAI y el laboratorio DeepMind de Google. Los promotores generalmente describen sus productos como confiables.
De hecho, sus resultados son consistentemente sospechosos, lo que representa un claro peligro cuando se utilizan en contextos donde la necesidad de una precisión rigurosa es absoluta, por ejemplo, en aplicaciones de atención médica.
Claro que en realidad, no siempre es así. Hay algunos problemas con los que se puede generar utilidades sin tener una solución perfecta. Por ejemplo, motores de recomendación impulsados por IA, aquellos que dirigen a los compradores en Amazon a productos que también les podrían gustar, por ejemplo. Si esos sistemas se equivocan en una recomendación, no es gran cosa. Un cliente puede gastar unos cuantos dólares en un libro que no va a gustar y no pasa nada. Pero, si una calculadora que es correcta solo el 85% de las veces, es basura. No lo usarías.
Estos errores suelen ser descritos por los investigadores de IA como “alucinaciones”. El término puede hacer que los errores parezcan casi inocuos, pero en algunas aplicaciones, incluso una tasa de error minúscula puede tener graves ramificaciones. Lo que se hace pasar como un defecto menor, son errores podrían incorporarse en registros oficiales, como transcripciones de testimonios judiciales o llamadas telefónicas desde la prisión, lleva a orientar a decisiones poco precisas, que lleven a una persona a ponerse en un riesgo mayor que el beneficio que aporta la IA.
Eso no es hablar mal de la inteligencia artificial o convertirnos en los que creen que será la ventana del Apocalipsis. No. Es apropiado señalar que los investigadores de Apple no son críticos de la IA como tal, pero creen que es necesario comprender sus limitaciones. La disminución en el rendimiento de estos modelos a medida que los problemas se vuelven más complejos es una frontera. Para estos modelos y para quienes somos usuarios de ellos. Es preciso entender cuándo es prudente y necesario usarlos y cuándo no. Por lo pronto, parece que la pregunta sobre si saben o no pensar tiene una respuesta clara. No.
Contacto:
Correo: ceciliaduran@me.com
Twitter: @CecyDuranMena
Las opiniones expresadas son sólo responsabilidad de sus autores y son completamente independientes de la postura y la línea editorial de Forbes México.
Sigue la información sobre los negocios y la actualidad en Forbes México
¿Será que la inteligencia artificial no sabe pensar?
Cecilia Durán Mena
from Forbes México https://ift.tt/puCgK06
via Forbes Mexico captado por Autecno Blog Captador de Noticias Zebra Mexico
Comentarios
Publicar un comentario