Vie. Nov 22nd, 2024

Como parte de las videoconferencias de la Red Global Mx Capítulo España, Julio Montes Torres, profesor del Departamento de Lenguajes y Ciencias de la Computación de la Universidad de Málaga, España, abordó el tema del ChatGPT y otras herramientas de la inteligencia artificial mediante la charla “Comentario sobre los límites del aprendizaje computacional y la inteligencia artificial”.

Montes Torres aseguró que no habrá computadoras que dominen elMmundo antes de finalizar el año, pues esta tecnología novedosa tiene sus limitaciones y fallos, por lo cual presentó trabajos y publicaciones concretas para mostrar los problemas que tienen los sistemas de inteligencia artificial, entre ellos ChatGPT, Futurepedia y Dall-e2, por citar 3 ejemplos populares.

En esta sesión virtual registraron su participación 284 estudiantes del área en la UdeC, así como pares académicos y estudiantes de otras instituciones que se sumaron a la transmisión. La directora de la Facultad de Ingeniería Electromecánica, Janeth Aurelia Alcalá Rodríguez, aseguró que esta conferencia dará una perspectiva general de las limitaciones materiales y formales de los métodos que se emplean en el campo del aprendizaje computacional y la inteligencia artificial.

Montes Torres, quien es doctorando en Bioinformática por la Universidad de Málaga, se concentró en trabajos y publicaciones concretas para explicar los problemas que tienen los sistemas de inteligencia artificial, aparentemente exitosos, y lo que deberían hacer para que éstos no existieran y avanzara la inteligencia artificial, que es lo que muchos esperan.

Mostró un estudio donde participó en 2017 sobre redes neuronales, novedosas en 2015, y la inteligencia artificial; “no es mejor emplear esta tecnología -dijo- con base en las conclusiones, porque no permite obtener mejores resultados, según la normativa sobre un simple modelo de regresión con información genética de pacientes con cáncer de mama, colon y riñón”. 

Además, dijo Montes Torres, “para construir los modelos conversacionales, en el ChatGPT se recurre al contexto sintáctico, y cuando le damos una frase inacabada puede terminarla con el siguiente elemento/palabra que tiene más sentido estadísticamente en función del contexto sintáctico”.

Aparentemente Chat GPT entiende lo que pides, “usa bases de datos visibles en internet y textos bien clasificados, mediante un entrenamiento como parte de un modelo computacional con millones y millones de textos, una cantidad descomunal”, explicó el experto.

Como otro ejemplo de las limitaciones de la inteligencia artificial, dijo, ocurrió en una tarea para generar un diagrama UML de un videoclub, relacionado con películas y clientes cuyo código fuera factible usar en la herramienta web PlantText y generar un diagrama. Las y los alumnos debían identificar qué hacía bien y qué no el chat inteligente.

El resultado fue que los nombres de la clasificación tenían sentido, “pero la cardinalidad de las relaciones donde la semántica es fuerte (relación uno a muchos, conexión normal, agregación, composición) y los resultados de ChatGPT fueron muy decepcionantes, porque en el contexto de generar un lenguaje formal, la desconexión semántica era total, ya que no era posible disimular los conocimientos estadísticos”. 

Aunado a estos resultados, Montes Torres resaltó que “para nosotros el mundo, nuestro entorno y lo que experimentamos en él es algo que podemos ver, tocar, oler y sentir, mientras que el ChatGPT no puede experimentar ninguno de estos sentidos, mucho menos sabe lo bonito que es ver un cielo azul”, lo que consideró una gran limitante para crear.

Autor

Related Post

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *