Introducción

Los inicios de una inteligencia artificial con gran impacto en el desempeño técnico de las funciones humanas, se ha pronunciado más pronto de lo que esperamos. En 2022 el ritmo de la innovación tomó por sorpresa a muchos expertos que no pudieron dimensionar el efecto de herramientas inteligentes como ChatGPT o Dall-E. Este artículo expone las actualizaciones que hemos experimentado por el crecimiento de la tecnología y de algoritmos entrenados para hacer más fácil la vida del humano.


Inteligencia artificial en 2023

Hace dos años escribí un artículo donde intentaba explicar la distancia que existe  para alcanzar una inteligencia artificial consciente, el contexto actual sigue siendo similar, estamos lejos de emular una consciencia humana, sin embargo no esperábamos ver tan temprano la aplicación técnica de algoritmos suficientemente entrenados que ofrecen productos, bienes y servicios al público con el uso de millones de datos humanos, de una manera eficaz.

Hablar de inteligencia artificial sigue siendo complejo y arbitrario el día de hoy, no existen consensos en definiciones, tampoco un mapa claro sobre el impacto que tendrá esta tecnología, pero esto siempre ha sido así, la tecnología se crea,  se aplica, se adopta, crece y se reproduce, después se analizan las consecuencias en la vida humana, tomen como ejemplo a Facebook, que hoy en día reconoce que ha tenido un impacto negativo en la psique humana.

Una inteligencia artificial equivale al conjunto de algoritmos  que tienen la capacidad de procesar múltiples datos para tomar decisiones (operaciones y cálculos) y su verdadera utilidad se convierte en hacer predicciones. Esta forma de asistirnos con ayuda de la tecnología no es una actividad nueva, anteriormente ya existían servicios de machine learning, algoritmos generativos, estadística y análisis de datos. 

En la actualidad, todos los gigantes tecnológicos están invirtiendo grandes sumas de dinero para mejorar sus plataformas de inteligencia artificial, con el propósito de automatizar, tomar decisiones más precisas, crear herramientas de uso público, reducir costos y ser más eficientes. Lo más probable es que en los próximos 10 años, los inicios de la I.A. se sometan al servicio del consumo y de la productividad.

Las herramientas públicas de I.A. que revolucionarán en 2023

Dall-E y Chat-GPT fueron las primeras herramientas de I.A que se popularizaron por el modelo de lenguaje que es capaz de generar texto de alta calidad y realista en una amplia variedad de tareas. La arquitectura que se emplea en este tipo de herramientas, es una arquitectura fundacional, es decir, es una base arquitectónica que establece los fundamentos del futuro de este mismo tipo de herramientas, quiere decir que al menos por los próximos 10 años estaremos experimentando variaciones de tecnologías con el mismo propósito, ritmo y velocidad de innovación.

La siguiente lista es una recopilación de las herramientas más populares y modelos arquitectónicos de I.A. más recientes que están abriendo nuevos paradigmas en I.A.

  • TensorFlow: Una plataforma de código abierto para el desarrollo y entrenamiento de modelos de inteligencia artificial.
  • PyTorch: Una biblioteca de aprendizaje profundo de código abierto desarrollada por Facebook.
  • Scikit-learn: Una biblioteca de aprendizaje automático de código abierto para la minería de datos y el análisis estadístico en Python.
  • OpenCV: Una biblioteca de visión por computadora de código abierto para el procesamiento de imágenes y vídeo en tiempo real.
  • GPT-3 (OpenAI): Un modelo de lenguaje de tercera generación que es capaz de generar texto de alta calidad y realista en una amplia variedad de tareas.
  • BERT (Google): Un modelo de lenguaje pre-entrenado que se utiliza en una amplia gama de tareas de procesamiento del lenguaje natural, incluyendo la clasificación de texto y la resolución de problemas.
  • XLNet (Google): Un modelo de lenguaje pre-entrenado que utiliza un enfoque permutativo para superar las limitaciones de BERT y mejorar la tarea de generación de lenguaje.
  • RoBERTa (Facebook): Un modelo de lenguaje pre-entrenado que mejora y optimiza BERT para un mejor rendimiento en tareas de procesamiento del lenguaje natural.
  • ALBERT (Google): Un modelo de lenguaje pre-entrenado que se enfoca en mejorar la eficiencia y la eficacia de BERT mediante la introducción de técnicas de compresión.
  • Generative Adversarial Networks (GANs): Una arquitectura de aprendizaje profundo que utiliza dos modelos, un generador y un discriminador, para generar imágenes y otras formas de contenido de alta calidad.
  • Variational Autoencoders (VAEs): Una arquitectura de aprendizaje profundo que utiliza codificadores y decodificadores para generar contenido de manera autónoma.
  • Transformer Networks: Una arquitectura de aprendizaje profundo que se ha utilizado ampliamente para generar texto, imágenes y otros tipos de contenido.
  • Image-to-Image Translation Networks: Una arquitectura de aprendizaje profundo que se utiliza para generar imágenes a partir de otras imágenes, como la traducción de día a noche o la transformación de una imagen en blanco y negro a color.
  • Style Transfer Networks: Una arquitectura de aprendizaje profundo que permite transferir el estilo de una imagen a otra imagen, como la aplicación de un estilo de arte a una fotografía.

¿Como aprenden los algoritmos?

Considero que el aprendizaje de los algoritmos es la clave del éxito de las herramientas que hoy en día experimentamos con inteligencia artifical. Esencialmente existen dos formas para entrenar a los algoritmos, por un lado aquellos que emplean la lógica y por otro lado aquellos que ocupan la lógica y la intuición al mismo tiempo (Deep learning), ambas se sustentan en la manera que funciona la capacidad cognitiva de los humanos, es por ello que el objetivo de cualquier I.A. es emular el pensamiento humano.

Los algoritmos hoy en día están muy lejos de virtualizar la vida del humano, incluso aún no sabemos con certeza cómo funcionan las neuronas y sus relaciones con nuestro cerebro. Podemos comprender el lenguaje de las neuronas en el cerebro ( sinapsis ) como una danza de millones de neuronas comunicándose a través de neurotransmisores y reacciones químicas, apenas hemos identificado más de 60 neurotransmisores, cada uno tiene una señal concreta, desconocemos demasiado sobre la estructura de nuestra mente, no hemos encontrando respuestas para conocer porqué somos diferentes y más avanzados a nivel cognitivo en comparación a otras especies, insisto, es sumamente complejo, al día de hoy es imposible igualar esta complejidad con tecnología y algoritmos.  

Sabemos también que los humanos no tenemos memoria ilimitada, y que nuestros procesos cognitivos funcionan a través de las abstracciones y síntesis de categorías. A diferencia de una máquina, el humano no necesita recordarlo todo con lujo de detalle, la síntesis, la simplificación y los conceptos funcionan como atajos para avanzar más rápido. Un solo algoritmo aún no puede llegar a este nivel de abstracciones, pero quizá un enorme conjunto de algoritmos con suficientes datos sí lo pueda lograr. 

Las bases de datos como el alimento de los algoritmos

Machine learning, data mining o big data son los campos más avanzados al día de hoy que aportan las metodologías de aprendizaje automatizado en algoritmos. La ciencia de datos es la disciplina que ha sentado las bases para estudiar a profundidad la I.A. y no se limita hacia el desarrollo de herramientas, si no que también ha dado un salto a nuevos métodos analíticos en múltiples áreas como estadística, econometría, interacción con el lenguaje natural, reconocimientos de imágenes, etc.

Ciertamente para que los algoritmos puedan aprender, se requiere de información y datos, que como habíamos mencionado anteriormente estos pueden ser falsos, verdaderos, ambiguos, sesgados o manipulados para favorecer un estudio. Las bases de datos son la sustancia con la que operan los algoritmos, y el origen de esta información se está construyendo y almacenando cada segundo a través de plataformas públicas o privadas que digitalizan cada movimiento de la humanidad.

Hipótesis: Imagina que en el futuro exista una base de datos con todos los datos públicos y privados de la humanidad, esto sería posible en el momento que hemos otorgado a la tecnología y a los algoritmos todos los permisos de lectura de nuestro cuerpo, en ese entonces, una verdadera  inteligencia artificial que pueda trabajar en armonía con todos los algoritmos,  podría tomar decisiones precisas y abstractas como lo hace el humano y con toda la ventaja.

La capacidad para operar grandes cantidades de datos, requiere de un alto consumo energético de procesamiento. ChatGPT por ejemplo es un modelo de lenguaje que requirió de 45 Terabytes de información pública para entrenarse y tiene la capacidad de procesar más de 175 mil millones de parámetros para realizar predicciones. La infraestructura que sostiene esta tecnología hoy en día es auspiciada por Microsoft con su plataforma de servicios en la nube de Azure OpenAi. Los costos de mantenimiento no son precisamente baratos, por lo mismo, el gigante tiene la mayor participación accionaria.

Alimentar con información a la base de datos de los algoritmos hoy se ha vuelto una actividad económica. Amazon Mechanical Turk, la plataforma de A.I. de Jeff Bezos,  por ejemplo, paga a miles de empleados para entrenar sus algoritmos con tareas que implican etiquetar datos, especialmente datos de imágenes, que se introducen en los modelos supervisados de aprendizaje automático para que comprendan mejor el mundo. Se requiere de los humanos para entrenar a los algoritmos, esto probablemente significa que estamos construyendo una simbiosis inseparable entre la tecnología y el hombre.

Inteligencia artifical
El nombre de Mechanical Turk proviene del siglo XVIII, una especie de robot con aspecto de turco jugaba al ajedrez de manera profesional. Su creador aseguraba que el sistema era completamente mecánico, pero en su interior se escondía un experto en ajedrez que ejecutaba todos los movimientos. El servicio de Amazon se basa en el mismo principio, aparentemente las predicciones son automatizadas, pero realmente esas tareas no se pueden ejecutar sin la asistencia humana.

Tipos de algoritmos.

Para que una I.A. pueda existir de manera escencial requiere de dos componentes: los algoritmos y los datos, la relación entre ellos nos permite clasificar su función y su tipología. No existe teoría o consenso en la clasificación de los algoritmos, como lo mencioné anteriormente, la tecnología se crea y después se comprende. Mientras se define la teoría, microsoft ya vende distintos servicios de machine learning con un catálogo de algoritmos que podemos usar de acuerdo a las herramientas que nos interesa crear.  Microsoft define que los algoritmos de aprendizaje automático normalmente están dentro de una de estas tres técnicas de aprendizaje automático:

Aprendizaje supervisado
En el aprendizaje supervisado, los algoritmos elaboran predicciones basadas en un conjunto de ejemplos etiquetados que se les proporciona. Esta técnica es útil cuando sabes cómo será el resultado.

Por ejemplo, Femsa, la empresa dueña de las tiendas OXXO y que distribuye la marca de Coca-Cola en México, tuvo éxito en su negocio con gracias a la gran cantidad de datos e información que recolectaban sus puntos de venta, sobre todo información sobre los hábitos de consumo de las personas en una zona, región o ciudad. La información que tiene esta empresa se inció antes que existieran las bases de datos en la nube, los puntos de venta validan esta información, por esta razón un algoritmo de la empresa podría predecir el consumo que solicita una tienda en cierta temporalidad, de tal manera que el stock en los almacenes siempre esté listo para cubrir la demanda.

Aprendizaje no supervisado
En el aprendizaje no supervisado, los puntos de datos no están etiquetados; el algoritmo los etiqueta automáticamente organizando los datos o describiendo su estructura. Esta técnica es útil cuando no sabes cómo será el resultado.

Un ejemplo que representa este algoritmo, es el mecanismo de recomendaciones sugeridas por Spotify o Netflix. Solo hace falta consumir sus servicios por un determinado tiempo para que el algoritmo por sí mismo pueda hacer recomendaciones más precisas sobre tus preferencias.

Aprendizaje de refuerzo
El aprendizaje de refuerzo utiliza algoritmos que aprenden de los resultados y deciden qué acción deben realizar a continuación. Después de cada acción, el algoritmo recibe comentarios que le ayudan a determinar si esa elección fue correcta, neutra o incorrecta. Es una buena técnica para usarla en sistemas automatizados que tienen que tomar muchas decisiones pequeñas sin la intervención humana.

Los alcances de una I.A y sus problemas éticos en la humanidad

Vivimos en la era de los algoritmos, en este momento es altamente probable que hayas tomado decisiones por sugerencias de un algoritmo sin darte cuenta. Muchos de tus datos personales están siendo procesados para venderte algún bien de consumo, y aunque parezcan inofensivas, las sugerencias que recibimos de la tecnología sobre que película ver, a qué lugar asistir, qué comida debo probar o que ropa debo vestir, se han convertido en actividades que delegamos por completo a la asistencia de la inteligencia artificial, es decir, permitimos inconscientemente que un algoritmo participe en nuestras tomas de decisiones diarias.

La mayoría de lo que hace la gente en internet, es producto de un algoritmo, y cada vez existen más actividades que recogen datos privados y personales sin darnos cuenta. La capacidad de lectura de los algoritmos en nuestra actualidad no conoce límites, a menos que existan leyes que realmente puedan regular la privacidad y la adquisición de nuestros datos, los algoritmos siempre encontrarán la forma de tener completa lectura del comportamiento humano.

La privacidad y la seguridad de los datos, son una vía para que los algoritmos mantengan una posición ética y responsable sobre el consumo de datos de las personas, el problema es que esta cultura, a nivel de los usuarios, se reduce a un simple checkbox que apruebas al final de los contratos digitales para estar de acuerdo con los términos y condiciones, y así puedas usar las herramientas.

Existen dilemas que aún no se han explorado por el uso de la I.A, en diversos escenarios se plantea construir un código de principios éticos y morales principalmente por la sensibilidad de los datos personales. Se ha demostrado que una plataforma con algoritmos entrenados puede ser clave en elecciones políticas, en la transformación ideológica de una sociedad, en el impacto de la salud física y mental de las personas o bien en el cambio de conductas y hábitos de consumo en las personas. 

Por otra parte, el motor que impulsa a los algoritmos para obtener información de la humanidad, es el hiperconsumismo. Los algoritmos más populares, hoy se encuentran al servicio del capitalismo, un sistema amoral que perpetúa la acumulación de utilidades sin importar las consecuencias . Eso siempre ha funcionado así en las versiones tempranas de tecnología, la inversión privada siempre será pionera en innovación, las fronteras que se rompen con el impulso del dinero, la ciencia y la tecnología parecen no tener límites, es por ello que las primeras herramientas públicas de I.A. que hoy conocemos tienen un objetivo lucrativo.

Por ejemplo, pasará mucho tiempo para que Wikipedia, la enciclopedia gratuita de la humanidad, pueda mejorar su tecnología e incorporar algoritmos avanzados en la búsqueda de resultados. Una verdadera inteligencia artificial que procure el cuidado de la humanidad se ve lejana, no imposible, sin embargo no podemos prever una vía favorable a corto plazo.

Sobre el desplazamiento del trabajo por las IA’s

La automatización es el concepto clave en la discusión del desplazamiento del trabajo humano por los algoritmos. El impacto es incierto, por ejemplo,  las primeras versiones de algoritmos generativos de imágenes han puesto en alerta a profesionales de la industria creativa, sin embargo, la forma en la que usamos la I.A. hoy se reduce a tareas simples, tareas de asistencia técnica, donde un supervisor humano pueda validar el resultado sugerido por la I.A. 

Ciertamente muchos empleos o actividades humanas se verán afectadas. Un abogado por ejemplo podría crear plantillas de contratos personalizados, un director creativo puede solicitar bocetos de imágenes muy cercanos al resultado final, un guionista puede generar ideas para crear narrativas para producción. Un músico podría diseñar una pista que tenga altas probabilidades de convertirse en un hit mundial. 

Una I.A. nunca podrá separarse de la supervisión de un humano. Los algoritmos siempre tendrán una relación con los datos humanos y su éxito dependerá del grado de fidelidad de la información, entre muchas otras variables. La I.A. por sí misma no tiene mucho poder, existen factores políticos, económicos y sociales que están arriba de su desarrollo, sin embargo, estamos hablando de un tipo de innovación intermitente y cambiante, que tiene las posibilidades de impactar a un país entero, a una sociedad entera e incluso a toda la humanidad. 

Conclusión

La tecnología que estamos experimentando no tiene estudios previos a sus lanzamientos. Tristemente, primero lanzamos la tecnología y después entendemos sus efectos en el mundo. Existen tecnologías que tienen diseños específicos, sin embargo, hay una neutralidad en las herramientas que independientemente de su intención o finalidad, tiene la posibilidad de generar un beneficio o un daño por el uso que les damos. Este artículo es una micro intención para comprender las dimensiones y campos que estamos explorando, seguramente, mientras explicamos los efectos de ChatGPT, el siguiente año existirá una versión que supere a la anterior en gran medida.

Los sistemas de I.A. sufren demasiados cambios a una velocidad más rápida de la que podemos comprender. Es necesario alcanzar el entendimiento de las tecnologías a su mismo ritmo, para poder orientar su uso hacia un bien común.

Referencias:
Enrique Dans: Machine learning as a competitive advantage
Algoritmos de aprendizaje automático
Sinapsis, el lenguaje de las neuronas en el cerebro
Un coche autónomo existe gracias a personas que no reciben el salario mínimo