Es solo un «autocompletado turboalimentado» o un «loro estocástico», como lo han expresado personas más elocuentes que yo. Aunque por lo que sé, ellos también podrían ser chatbots.
Pero ahora he llegado a la conclusión de que las IA que usamos hoy sí entienden lo que están haciendo, o al menos parte.
Vamos a ver que dicen los verdaderos expertos
La pregunta de si un programa de computadora comprende lo que está haciendo ciertamente no es nueva. En 1980, el filósofo estadounidense John Searle argumentó que la respuesta es «no», utilizando un experimento mental que se conoce como la «habitación china».
Searle se imagina a sí mismo en una habitación sin ventanas con un manual y un buzón. Si alguien le deja una nota escrita en chino, él busca los símbolos en su manual. El manual le da una traducción al inglés que devuelve como respuesta a través de una rendija en la puerta, sin duda basándose en la experiencia cotidiana de un profesor de filosofía.
Searle argumenta que la persona fuera de la habitación podría creer que hay alguien adentro que comprende el chino. Pero en realidad, todavía no entiende una palabra de ello, solo sigue las reglas que se le han dado.
Searle argumenta que un programa de computadora funciona así, sin ninguna comprensión real, solo siguiendo reglas.
Hay dos objeciones estándar que la gente presenta contra el argumento de Searle
Uno es que el sistema que comprende el chino no es solo la persona dentro de la habitación, sino la persona que incluye el manual.
Entonces, decir que la persona no comprende el chino podría ser correcto, pero no responde a la pregunta porque, en la analogía de Searle, la persona sola no representa el programa de computadora.
Otra objeción es que bien podría ser correcto que Searle y su manual no comprendan el chino, pero eso se debe a que la entrada es limitada. El lenguaje carece de la información física que hemos aprendido a asociar con las palabras. Un software que tuviera la misma información física podría desarrollar comprensión como lo hacemos nosotros.
A menos que vivamos en una simulación de computadora, en cuyo caso puede presentar quejas utilizando el formulario de contacto en la esquina inferior derecha de su lóbulo frontal.
Entonces, veamos la cuestión de quién entiende qué y por qué
Tenemos un modelo del cuerpo humano en nuestro cerebro. Esto nos permite entender qué efectos tendrán nuestros movimientos, cómo se mueven los humanos en general y qué partes pertenecen a dónde. Notamos de inmediato si algo está mal.
Pero si entrena una IA en imágenes bidimensionales, no asigna automáticamente esas imágenes a un modelo en 3D. Es por eso que a veces creará cosas extrañas como personas con medio pie o tres brazos o algo así.
Esto, por ejemplo, es mitad de camino intentando mostrar a una persona atando sus cordones. Se ven más o menos bien, porque es lo que la IA fue entrenada para hacer, para producir una imagen que se ve más o menos bien.
Pero en realidad no capturan la cosa real
Si toma la comprensión para significar que tiene un modelo de lo que está sucediendo, entonces estas IA casi seguramente comprenden la relación entre las sombras y las luces.
Pero ¿sabe que las sombras y la luz son creadas por la radiación electromagnética que rebota o es absorbida por cuerpos tridimensionales? No puede, porque nunca recibió esa información!
En su lugar, puede darle a una IA un modelo 3D y entrenarla para que coincida con imágenes con ese modelo 3D. Básicamente, así es como funcionan los deepfakes!
Y en este caso, diría que la IA realmente entiende en parte el movimiento de ciertas partes del cuerpo.
Con información de VitorPro