¿Se desespera con los centros telefónicos que le piden que pronuncie una palabra para escoger entre las opciones de un menú, para al final decirle que no la entienden?
Reconocer palabras aisladas, se podría decir, constituye sólo la punta del iceberg en el problema de la comprensión del lenguaje por una computadora, porque la comunicación humana es sumamente compleja. Aun si suponemos que el receptor es pasivo, la codificación de la onda sonora como secuencias de fonemas y, a partir de estas, buscar patrones que se asemejen a una palabra es tan sólo el comienzo del procesamiento de lenguaje. Ahora bien, si pensamos que se encuentra sin error la palabra que se ajuste correctamente a una secuencia de fonemas, el problema de la comunicación se complica rápidamente. Y es que, los lenguajes son procesos creativos y por lo tanto son dinámicos y evolutivos, pero están sujetos a unas restricciones sistemáticas que demarcan las fronteras de la innovación lingüística, no toda secuencia de fonemas llega a ser una palabra aceptable; y no toda secuencia de palabras constituye una oración. Por lo que, los lenguajes naturales, como el español o el inglés, están plagados de retos para la computación.
Inicialmente, el procesamiento de lenguaje natural se basaba en reglas estáticas que establecían, al entender de quien las formulaba y codificaba en un lenguaje de computadora, la forma correcta de construir y deconstruir el lenguaje. No obstante, a medida que se explora un lenguaje, el número de reglas crece rápidamente y de todos modos resulta insuficiente. En este sentido, un sistema estático de reglas rápidamente deja de ser eficaz y cubre sólo un subconjunto del lenguaje.
Una alternativa a las reglas estáticas son los analizadores lingüísticos probabilísticos, los cuales en lugar de hallar la regla perfecta buscan la más verosímil o la que mejor se ajusta. El estudio de la lingüística y de la ciencia cognitiva demuestra que el aprendizaje es un componente fundamental de la inteligencia en general y de la comunicación en particular, y estos modelos probabilísticos, tales como los modelos ocultos de Markov, pueden aprender a partir de un corpus grande de ejemplos de análisis lingüístico que han sido previamente analizados y resueltos.
Pero cuando se llega al nivel de análisis semántico el asunto se complica aún más. Se empieza por determinar si una unidad semántica tiene sentido o no. Pero una unidad puede tener sentido de acuerdo al contexto. La semántica computacional nos enfrenta con problemas tales como el manejo de la sinonimia, la polisemia, la hiponimia e hiperonimia, las ambigüedades y las anomalías, sin contar con construcciones más complejas como las figuras retóricas. Sin embargo, son estas propiedades semánticas las que enriquecen la comunicación humana.
Determinar si una unidad lingüística tiene sentido depende de muchos factores que rodean la comunicación. Un ejemplo del complejo manejo del contexto es el humor. En el humor se manejan aparentes contradicciones y otras anomalías semánticas, pero son precisamente estas anomalías las que en el contexto adecuado logran que una expresión, aparentemente sin sentido, resulte divertida o cómica; le dan sentido.
De manera que, la comunicación y el lenguaje van de la mano con el pensamiento y lo afectivo. Por ello, se ha incursionado en lo que se denomina computación afectiva. Las emociones son naturales en la comunicación humana, por lo cual se espera que la interacción sea más natural y efectiva con computadoras que reconozcan y expresen afecto.
Alan Turing, un matemático inglés de la primera mitad del siglo XX propuso una prueba en la que un interrogador humano interactúa a través de una consola con otro humano o con una computadora. Si el interrogador no es capaz de distinguir entre el humano y la computadora se podría concluir que la máquina es capaz de actuar como el humano. Aunque la comunicación sea a través de textos, una computadora que no sea capaz de percibir y expresar emociones no pasaría la prueba de Turing.
La pregunta que surge ahora es si la prueba de Turing es suficiente. John Searle, un filósofo americano, propuso el siguiente experimento mental. Supóngase que una máquina logra superar la prueba de Turing en el idioma chino. Imagínese ahora que en la habitación donde está la máquina Searle la substituye. Él no tiene conocimiento del idioma chino pero se le dan una serie de manuales que le permiten responder a cualquier texto que se introduzca en la habitación. Surgen ahora al menos las siguientes preguntas, ¿Cómo puede Searle responder si no entiende chino? ¿Acaso los manuales saben chino? ¿O se podría considerar que todo el sistema, Searle y los manuales, entiende chino? Con ese experimento cuestiona la comprensión del lenguaje por una máquina. Por otras parte, los defensores de la denominada inteligencia artificial fuerte, podrían afirmar que, en últimas, el cuerpo humano es gobernado por las mismas leyes físicas que gobiernan las máquinas y por lo tanto, o los humanos somos una compleja habitación china, o las máquinas eventualmente podrían llegar a comprender el lenguaje y la comunicación humana. La cuestión sigue sin resolver, pero constituye un tema de investigación apasionante que toca las fibras de algo que por siglos hemos considerado profundamente humano.
El autor es catedrático en el Departamento de Ingeniería Eléctrica y de Computadoras en Universidad de Puerto Rico, Recinto Universitario de Mayagüez.