Daniel Zecca
Maximiliano Torti es ingeniero electrónico egresado de la Universidad Nacional de Rosario. Obtuvo el título de especialista en Inteligencia Artificial en la UBA, donde luego también fue docente en la materia donde se estudian las redes neuronales. Actualmente cursa un máster en inteligencia artificial, también en la UBA.
Frente al avance de la utilización de la inteligencia artificial, y las dudas que genera a futuro, entre ellas le pérdida de los trabajos y la supuesta autonomía que podría llegar a tener, El Ciudadano consultó al especialista rosarino.
«Cuando uno empieza a estudiar lo que es inteligencia artificial, se da cuenta que de fondo es matemática, aplicada de forma muy ingeniosa», explica. Para Torti, hay funciones básicas de un ser humano, como la razón o el pensamiento, que son «imposibles de extrapolar a un cálculo matemático».
—Hay quienes dicen que la inteligencia artificial va a cambiar la vida de las personas en el muy corto plazo, que va a terminar con el trabajo como lo conocemos hoy, entre otras cosas. Y hay quienes, desde otro lado, le bajan un poco el perfil y te dicen que detrás de todo esto está la intención de atraer inversiones.
—Y yo estaría en el segundo grupo, de bajarle un poco el perfil. No digo que no tenga un potencial enorme, tiene un potencial de ser una revolución tecnológica, por las posibilidades que abre, que son posibilidades que antes no teníamos, pero también cuando uno empieza a estudiar lo que es inteligencia artificial se da cuenta que de fondo es matemática. Y hoy lo que tenemos es matemática, aplicada de una forma muy ingeniosa, que da resultados a veces muy buenos.
Normalmente, cuando alguien tenía un problema buscaba la solución y encontraba todo el procedimiento de cómo hacer la solución. Ejemplo, si alguien tenía que hacer un balance reunía todos los datos y aplicaba una fórmula. Y el balance le daba tal resultado.
La IA da un poco vuelta a eso, genera un proceso en forma automática, o sola, para que dé bien con estos datos. Viene a resolver problemas que son muy complejos como para que el humano se ponga a hacer el proceso él solo a mano, y lo hace en forma automática, con grandes cantidades de datos.
Entonces, cuando uno lo piensa así, dice, bueno, por ahora es solo matemática. Lo que tiene es que hoy día se han encontrado modelos de inteligencia artificial o formas de hacer este proceso que hacen cosas que son bastante llamativas.
Entonces, hoy por hoy resuelve problemas que son muy complejos, que no podemos nosotros pensar o nos llevaría mucho tiempo, problemas que nos llevarían mucho tiempo para encontrar una solución manual. Entonces, esto se ajusta automáticamente, simplemente con tener muchos datos y haberle dado algunas hipótesis o haberle dado un camino para que se entrene. Y funciona bastante bien. El día de mañana no sé.
Si el día de mañana esto sigue avanzando y se encuentran modelos mejores o modelos que simulan si es, por ejemplo, no sé, los modelos de visión artificial están un poco basados en cómo ve el humano. Entonces es como una visión que se autoentrena. Es un algoritmo que reconoce patrones, se autoentrena y sabe sacar patrones. Qué es lo que hace el humano. El humano reconoce primero líneas, después reconoce círculos y así va construyendo todo un concepto de las cosas que ve.
Justamente es encontrar un modelo que anda muy bien para visión replicando un poco el procesamiento que hace la cabeza del humano, cerebro humano. Qué sé yo, no sé si algún día podremos descubrir lo que es la conciencia o podremos ir un poco más allá y crear un modelo que replique o emule eso, no lo sé.
—Ese es el punto, ¿no?
—Hoy estamos lejos. Hoy estamos lejos. Hay un concepto que es el de inteligencia artificial general, que sería esta superinteligencia capaz de razonar o de hacer muchas cosas. Hoy no estamos ni cerca de eso.
—¿Pero se puede llegar?
—No lo sé. No se sabe.
—Hay quienes dicen que van a tener cierta autonomía…
—Es difícil de saberlo, son procesos muy complejos, al basarse en datos, la inteligencia artificial necesita muchísimos datos, mucho poder de cómputo, mucho tiempo de entrenamiento, mucha electricidad, muchos recursos…
—¿Cuáles son las patas más flojas de ese futuro que se promete así? El tema de la energía aparece siempre.
—Y el de la energía aparece siempre porque es verdad, consume mucha energía. Por ejemplo, estos modelos de ChatGPT demoran meses en entrenarse con toda la información disponible en internet. Es un mes entero con un montón de súper computadoras que el usuario promedio no tiene acceso nunca en la vida, y cuesta mucha plata mantener eso.
Es verdad, y con eso lograron un modelo de lenguaje, que para lenguaje anda medianamente bien, pero tampoco es que es súper íncreíble. Uno le encuentra algunos errores cuando lo usa, pero es súper útil eh como herramienta, pero bueno, dista mucho todavía de tener conciencia o algo así o semejante.
Y después es eso, es lograr un entendimiento de más funciones del humano como para poder replicar matemáticamente. Hoy muchos de los modelos hacen eso, tienen algún truco o usan alguna técnica, o se basan en alguna fórmula matemática que replica bien algo que hace el humano, y entonces cuando se entrena eso anda bastante bien, pero tenés que encontrar eso. Y esas fórmulas se hacen cada vez más complejas, cada vez más difíciles de entender, cada vez más difíciles de aplicar. Entonces, es como que se alcanza un límite tecnológico de decir, «che, este algoritmo no da más, llega hasta acá, hay que encontrar algo mejor».
—¿Por qué?
—Porque el algoritmo no tiene más capacidad de aprendizaje, no tiene más capacidad de hacer algo más complejo.
—Vos dijiste, como bajándole el precio a la inteligencia artificial, «por ahora, son solo cálculos matemáticos». ¿Qué quiere decir eso?
—Que hoy por hoy, cuando uno ve los modelos, es matemática aplicada en forma bastante ingeniosa. Es ponerle datos a una fórmula matemática, esa fórmula matemática interpreta patrones de esos datos y empieza a sacar conclusiones o empieza a multiplicar los números, o a dividir los números entre sí, y empieza a sacar patrones y con esos patrones logra dar una respuesta numérica.
—Para subir ese precio, de que no sean solo cálculos matemáticos, ¿a dónde debería pasar?
—Y debería haber un entendimiento de cómo razona un ser humano, o sea, ¿qué es lo que genera el razonamiento, qué es lo que hace el humano? Por ejemplo, no sé, el humano puede extrapolar conocimiento de un ámbito a otro ámbito. Capaz que yo aprendí a andar en bicicleta y ese movimiento de andar en bicicleta lo puedo aplicar en otro proceso similar o puedo aprender algo sobre otra cosa. Eso, los modelos hoy no lo pueden hacer. No pueden. Entonces es ir destrabando funciones que tiene el humano que matemáticamente hoy no se sabe cómo replicarlas o directamente no se sabe por qué lo podemos hacer.
—¿Cuáles serían las funciones básicas que no tienen manera de extrapolarse a un cálculo matemático?
—Y para mí ese es la razón. La razón, el pensamiento.
—Uno dice que aparentemente la inteligencia artificial piensa.
—Y no. Hay modelos muy muy grandes que tienen algún alguna especie de aprendizaje, que vos le mostrás algo y es como que lo pueden replicar sin haberlo visto en su entrenamiento, que todavía no está del todo claro por qué lo pueden hacer. Pero no es razonamiento.
—Esto de que hay dos inteligencias artificiales que se pusieron a actuar entre sí, generaron su propio código y el hombre quedó afuera.
—Puede ser. Puede ser que suceda. Pero de nuevo, es matemática que aleatoriamente se dirige hacia un lado. Si vos le decías al modelo que encuentre la respuesta de la forma más rápida, el modelo va a intentar buscar la respuesta de la forma más rápida. Y va a hacer lo que sea para encontrar la respuesta más rápida, pero con límites o siguiendo este una serie de reglas.
֫—No es que haya una conciencia de «voy a dejar afuera al humano, no hay conciencia de humano, no hay conciencia de nada».
—No, no, no, muchas veces los modelos entrenan en forma aleatoria, para hacer todas las acciones posibles, investigar todo lo las acciones que vos podés realizar para llegar a la respuesta lo más rápido posible. Y bueno, en alguna de esas exploraciones quizás encuentra que simplificando el lenguaje o hablando de otra manera puede encontrar la respuesta más rápido. Y va a ir para ese lugar.
—Hay una palabra que usamos todos y no sé si sabemos lo que quiere decir, que es algoritmo.
—Se usan algoritmos en la inteligencia artificial. Son fórmulas matemáticas, muy bien.
—Es decir, el algoritmo está relacionado con lo que vos decís, sí, son cálculos matemáticos. ¿Qué es lo que matemático?
—Para dar una idea, no sé. Supongamos que tenemos un modelo que predice si mañana llueve o no llueve. Y uno de los datos de entrada es si hoy llovió, por ejemplo. Bueno, si hoy llovió, yo a ese dato lo voy a multiplicar por 100, porque ese dato es sumamente importante. Y lo sumo, no sé, a la presión atmosférica actual. Hace eso.
Y al final de todo va a dar un número del cero al 100, que es la posibilidad de que mañana yo no llueve. Muy simplificadamente hace eso. Después, cuando vos le das todos los datos de entrenamiento, va a decir: «Ah, mirá, no, la verdad que hoy llueva no es tan importante, entonces le bajo ese numerito, le bajo la importancia al que hoy llueve”.
Y va haciendo eso todo el tiempo. Va ajustando hasta que el modelo esté entrenado y ya sabe cómo interpretar los datos de entrada para dar la mejor respuesta posible en base a los datos que tuvo en el entrenamiento.
Entonces, eso es un algoritmo. Es una fórmula matemática que agarra números de entrada y saca números de salida.
—Y esa inteligencia artificial, supongamos que llega a ser autónoma funcionando en un humanoide. ¿Necesita esa misma cantidad de energía de la que hablamos antes para funcionar?
—No, no tanto, porque el gran costo es entrenar ese modelo, darle todos los datos y durante mucho tiempo ir ajustándose a los datos de a muy poquito, porque si se ajusta muy de golpe es como que va a ir para cualquier lado del entrenamiento. Entonces es como que ve un dato y dice “le erré, me ajusto un poquito”.
Y así viendo muchos datos es como llega a una zona donde tiene un rendimiento con una precisión bastante buena, aceptable. Los modelos de inteligencia artificial nunca tienen el 100%. Siempre es un porcentaje que voy a decir, bueno, más del 80% Está bien, le pega más del 80%.
—¿Y es verdad que nosotros lo vamos entrenando a medida que vamos consultando?
Sí. Nosotros a medida que lo vamos usando le vamos dando más datos que se pueden utilizar a futuro para entrenarlo de nuevo y entrenarlo mejor. Siempre que vos tengas más datos, siempre va a ser mejor. Siempre va a funcionar mejor.
—¿Hacemos bien o hacemos mal?
—En mi opinión hacemos bien, porque los modelos de inteligencia artificial justamente se basan mucho en probabilidad. ¿Cuál es la probabilidad de qué que suceda esto si yo tengo esto de entrada? O sea, yo conozco esto, ¿cuál es la probabilidad de esto otro? Entonces, esa probabilidad, mientras más datos tengas, va a ser mucho más certera.
Ese entrenamiento cuesta mucho tiempo, mucho tiempo y mucho mucha energía. Si el modelo es muy grande va a costar, le va a demandar energía, por ejemplo, el ChatGPT entero una persona con una computadora en la casa no lo puede ejecutar, ya entrenado, pero no es el nivel que se necesita para entrenarlo. El entrenamiento es lo que más energía se lleva.
—Entonces, si nosotros eh avanzáramos con esto, nos encontraríamos con un gran simulador. Nos haría creer que está pensando, pero en el fondo, no. ¿Es así?
—Al día de hoy, sí.
—En la Cámara de Diputados de la provincia se está formando una comisión de inteligencia artificial. ¿Qué se puede hacer desde el aspecto legislativo? Si conviene legislar, ¿para qué lado habría que legislar?
—Sí, hay legislación en Europa, hay una comisión que sacó una legislación. También mucho es porque como estos modelos necesitan grandes cantidades de datos, ¿de dónde sacás esos datos? ¿Qué datos puede usar? No sé. Algo que tienen los modelos que es un problema sobre el cual hay que activamente hay que corregirlo es que los modelos se entrenan en base a datos. Si vos tenés datos con sesgo, un sesgo, por ejemplo ideológico, el modelo va a replicar eso. También hay muchas cuestiones de privacidad, quiénes son los dueños de los datos.
Si vos estás navegando en internet y generas información que puede ser susceptible de ser usada para por un modelo, ¿a quién pertenece esa información? No sé, los libros, ¿se pueden usar libros? Los libros se supone que tienen un copyright. Y después también al uso de los modelos. Los modelos se tienen que usar de una forma que sea equitativa, que sea abierta, que te digan cómo se usa el modelo, qué es lo que utiliza de entrada y qué es la salida que da. Que sean conscientes con qué también funciona el modelo.
—Una de las cosas sería sumar información, que la gente sepa que está en juego.
—Hay algunas cosas graciosas respecto a eso. Por ejemplo, los captchas. Lo que está haciendo es etiquetando imágenes para poder entrenar un modelo. Se está usando de las dos formas, se está usando por un lado para asegurar que vos no de que vos un robot, porque es algo que quizás que el robot un robot todavía no puede realizar, pero por otro lado vas a estar dando datos para que haya un robot que lo pueda hacer.
—Es decir, que tendría que haber un esfuerzo del Estado, del gobierno, en generar algún un grado de conciencia en la población para ver qué datos sí, que datos no.
—Sí, igual hay algunas reglas de leyes de privacidad de datos y demás, que indirectamente terminan aplicando, porque son reglas generales, pero bueno, no es que haya una ley específica de uso de IA
—¿Y el tema del trabajo?
—Yo creo que hay que pensarlo quizás como una herramienta más. No sé, en un momento surgió Google, que es un buscador espectacular, y capaz que había gente que hacía el trabajo de Google y pasó a ser reemplazado por el buscado de Google. Y esto me puede pasar a mí. Es una herramienta más.
—Dicen que uno de los trabajos que más fácilmente se reemplaza, además de los periodistas (risas), son los que tienen tareas repetitivas.
—Bueno, tomemos como ejemplo la cuestión de los periodistas. Justamente lo que los modelos no pueden hacer hoy es razonar y tienen un porcentaje de acierto, digamos, todo lo que sea trabajos que necesitan de inventiva o creatividad, es justamente lo que no puede hacer.
—Pero puede hacer arte.
—Hoy tenés modelos que le das una descripción y te generan imágenes, pero vos tenés que tener en tu cabeza esa idea y generarla. Yo creo que eso no se va a reemplazar en el corto plazo. Entonces, una persona quizás empieza a usar esos modelos como herramientas. Bueno, quizás alguien demoraba una semana en editar una foto y con esta herramienta demora menos. Pero la parte creativa, la parte de pensar, la parte de componer la imagen, de saber cómo tienen que ir cada objeto y todo eso, no creo que se vaya a reemplazar, creo que va a seguir siendo una función humana.
A la vez, una vez que esté todo terminado, la imagen o lo que sea, un humano tiene que ir a revisarlo siempre. Tiene que ir y validar que esa salida sea acorde.
—Es cierto que sí puede bajar la cantidad de personas que se necesitan para determinados procesos.
—Eso sí. O que acelere el proceso, con la misma cantidad de personas. Por ejemplo, en el trabajo de programación dicen que van a reemplazar a los programadores porque tenés ahora modelos que son muy buenos en dar soluciones, pero la realidad es que hoy en día mayormente usamos ese modelo para ser más productivo, o las cosas que quizás no necesitan tanta intervención o tanta creatividad. Le encargo la tarea y reviso lo que hizo. Y siempre tenés algo para acotar o corregir.
—¿Es bueno subirse a la inteligencia artificial?
—Yo creo que hay que entender que por detrás es matemática, matemática aplicada muy ingeniosamente, y que lo que generan esos modelos son herramientas, que te ayudan a hacer cosas más fáciles, más rápido. Y creo que, hoy por hoy, lo mejor que podemos hacer, las herramientas ya están, es subirnos.