MundoTecnología

¿Entiende un chatbot con IA de qué está hablando?

Este post explora la cuestión de si los chatbots con inteligencia artificial realmente entienden lo que están hablando. La comprensión se define como la capacidad de crear un modelo útil de la cosa que se está tratando de entender, y se argumenta que las redes neuronales pueden entender más que los humanos…

Es solo un «autocompletado turboalimentado» o un «loro estocástico», como lo han expresado personas más elocuentes que yo. Aunque por lo que sé, ellos también podrían ser chatbots.

Pero ahora he llegado a la conclusión de que las IA que usamos hoy sí entienden lo que están haciendo, o al menos parte.

Vamos a ver que dicen los verdaderos expertos

La pregunta de si un programa de computadora comprende lo que está haciendo ciertamente no es nueva. En 1980, el filósofo estadounidense John Searle argumentó que la respuesta es «no», utilizando un experimento mental que se conoce como la «habitación china».

Searle se imagina a sí mismo en una habitación sin ventanas con un manual y un buzón. Si alguien le deja una nota escrita en chino, él busca los símbolos en su manual. El manual le da una traducción al inglés que devuelve como respuesta a través de una rendija en la puerta, sin duda basándose en la experiencia cotidiana de un profesor de filosofía.

Searle argumenta que la persona fuera de la habitación podría creer que hay alguien adentro que comprende el chino. Pero en realidad, todavía no entiende una palabra de ello, solo sigue las reglas que se le han dado.

Searle argumenta que un programa de computadora funciona así, sin ninguna comprensión real, solo siguiendo reglas.

Hay dos objeciones estándar que la gente presenta contra el argumento de Searle

Uno es que el sistema que comprende el chino no es solo la persona dentro de la habitación, sino la persona que incluye el manual.

Entonces, decir que la persona no comprende el chino podría ser correcto, pero no responde a la pregunta porque, en la analogía de Searle, la persona sola no representa el programa de computadora.

Otra objeción es que bien podría ser correcto que Searle y su manual no comprendan el chino, pero eso se debe a que la entrada es limitada. El lenguaje carece de la información física que hemos aprendido a asociar con las palabras. Un software que tuviera la misma información física podría desarrollar comprensión como lo hacemos nosotros.

A menos que vivamos en una simulación de computadora, en cuyo caso puede presentar quejas utilizando el formulario de contacto en la esquina inferior derecha de su lóbulo frontal.

Los Chatbots nos entienden?

Entonces, veamos la cuestión de quién entiende qué y por qué

Tenemos un modelo del cuerpo humano en nuestro cerebro. Esto nos permite entender qué efectos tendrán nuestros movimientos, cómo se mueven los humanos en general y qué partes pertenecen a dónde. Notamos de inmediato si algo está mal.

Pero si entrena una IA en imágenes bidimensionales, no asigna automáticamente esas imágenes a un modelo en 3D. Es por eso que a veces creará cosas extrañas como personas con medio pie o tres brazos o algo así.

Esto, por ejemplo, es mitad de camino intentando mostrar a una persona atando sus cordones. Se ven más o menos bien, porque es lo que la IA fue entrenada para hacer, para producir una imagen que se ve más o menos bien.

Pero en realidad no capturan la cosa real

Si toma la comprensión para significar que tiene un modelo de lo que está sucediendo, entonces estas IA casi seguramente comprenden la relación entre las sombras y las luces.

Pero ¿sabe que las sombras y la luz son creadas por la radiación electromagnética que rebota o es absorbida por cuerpos tridimensionales? No puede, porque nunca recibió esa información!

En su lugar, puede darle a una IA un modelo 3D y entrenarla para que coincida con imágenes con ese modelo 3D. Básicamente, así es como funcionan los deepfakes!

Y en este caso, diría que la IA realmente entiende en parte el movimiento de ciertas partes del cuerpo.

Lee la nota completa aquí …

Esta nota habla habla sobre la comprensión de las inteligencias artificiales (IA) en diferentes temas, como la mecánica cuántica y el lenguaje. Se discute la analogía de la Habitación China, un experimento mental en el que se argumenta que un programa de computadora no comprende realmente lo que está haciendo, sino que simplemente sigue reglas. Sin embargo, se señala que las redes neuronales utilizadas en las IA aprenden a identificar patrones y extrapolan información, lo que es similar a cómo aprenden los humanos. Se discute la importancia de tener un modelo útil de la cosa que se está tratando de entender para poder decir que se comprende algo. En cuanto a la comprensión del lenguaje, se explica que este no está tan ligado a la realidad como los videos o las fotografías, pero las redes neuronales aprenden relaciones entre palabras y pueden identificar patrones. Se menciona que las redes neuronales no tienen modelos 3D de la realidad, lo que puede llevar a errores en la comprensión de relaciones espaciales. En resumen, el texto discute la capacidad de las IA para comprender diferentes temas y cómo se puede evaluar su comprensión.

Con información de VitorPro

Vítor de Oliveira

Programador, Analista Digital, Mercadeo Digital, Fanático de la Tecnología. Webmaster de La Prensa de Monagas

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Back to top button

Acceder

Registro

Restablecer la contraseña

Por favor, introduce tu nombre de usuario o dirección de correo electrónico y recibirás por correo electrónico un enlace para crear una nueva contraseña.