Lautaro Borrovinsky conversó con Juan Ignacio Guarino al aire de El Ágora en Radio Nacional sobre el desarrollo de la Inteligencia Artificial y su reciente irrupción en la sociedad.
Además, habló de las redes neuronales artificiales, en las que se producen “tantos millones de funciones” que “en un punto perdemos el rastro de lo que está haciendo”, y los dilemas que este tipo de tecnología presenta.
Borrovinsky tiene una doble titulación en Matemática y Ciencias de la Computación por la Universidad Hebrea de Jerusalem, y se especializa en el procesamiento de lenguaje natural, una de las ramas de la Inteligencia Artificial.
Además, es Senior Data Scientist (científico de datos), y ha colaborado con varias start-ups y proyectos académicos vinculados al tema. También se ha desempeñado como docente y conferencista.
¿Qué es la Inteligencia Artificial?
En diálogo con Juan Ignacio Guarino, explicó que “en principio la Inteligencia Artificial es la capacidad que tienen las computadoras para realizar tareas propias de la inteligencia humana”.
“A mí me gusta la definición que utiliza la Real Academia Española”, comentó, “en la que habla de operaciones comparables a las que realiza la mente humana”, tales como “el aprendizaje, el razonamiento, la resolución de problemas”.
Esta distinción sirve “justamente para desambiguar, para separar lo que es la inteligencia o el aprendizaje cuando hablamos de una computadora”, señaló, “y cuando hablamos de un ser humano”.
Por otro lado, aclaró que “el término Inteligencia Artificial fue acuñado en el año 1956, en un taller de verano de la Universidad de Dartmouth”. Con la presencia de los primeros científicos de la computación, “en este congreso se sentaron las bases para todo lo que vino después”.
“También está lo que popularmente se conoce como el test de Turing”, continuó, en el que evalúa la capacidad de una máquina de comportarse de forma indistinguible a un ser humano.
“Alan Turing, el padre de la computación moderna, uno de ellos al menos, planteaba que vamos a poder hablar de una máquina inteligente o pensante cuando se logre pasar este test”, agregó.
Machine Learning y programación tradicional
Borrovinsky también aclaró que en la actualidad “la mayoría de las veces que se habla de Inteligencia Artificial se está hablando de lo que se llama Machine Learning o aprendizaje automático”, que “es el campo estudio que da a las máquinas la capacidad de aprender sin ser explícitamente programada”.
“Esto es un cambio de paradigma con respecto a la programación tradicional en la cual se le daba una serie de instrucciones muy claras y sin lugar para ambigüedades a la máquina”, explicó.
“Hoy en día, tanto por la cantidad astronómica de datos disponibles en la era digital, porque estos modelos entrenan con datos”, continuó, “como la capacidad de cómputo y las tecnologías que existen, se puede implementar y se puede llegar a resultados impresionantes”, como su aplicación en ChatGPT o la generación de imágenes a partir de instrucciones. Al respecto, expresó que:
“En el Machine Learning, le damos input y output a la máquina. Y a partir de encontrar patrones y relaciones, la máquina genera el algoritmo, o en este caso, el modelo para resolver algún tipo de problema”.
Por otro lado, remarcó que “un modelo es una representación simplificada de la realidad o de una parte de una realidad infinitamente más compleja” y en el caso de la Inteligencia Artificial, “cuando hablamos de modelo, hablamos de una función matemática”.
“Si bien no sabemos cómo la computadora realiza algunas de las tareas que realiza, o si es inteligente o no”, reflexionó, “tampoco sabemos muy bien muchas veces por qué nosotros asumimos lo que asumimos”.
Las redes neuronales artificiales
Cerca del final de la entrevista, el científico de datos comentó que hoy en día los modelos más populares son “redes neuronales artificiales”, que “buscan emular el comportamiento de las redes neuronales analógicas o biológicas”.
“Esto es lo que se llama Deep Learning, o sea, aprendizaje profundo, que es una rama del aprendizaje automático, del Machine Learning”, detalló, con la diferencia en que:
“En este caso las redes neuronales encuentran patrones en los datos en lugar de que tengamos que darles características definidas manualmente”.
“Como son tantos millones de funciones, en un punto que perdemos el rastro de lo que está haciendo”, aseguró, “y es difícil, es imposible en algunos casos, interpretar los resultados”. En este contexto, agregó:
“A la hora de permitir que una máquina pueda detectar un tumor o cosas de alto riesgo, está el dilema de -si tienes mucha efectividad- si acaso conviene confiar de esta manera en una máquina, aunque no sepamos por qué, cómo se llega la conclusión a la que llega”.
Fuente: El Agora Digital