El uso de la IA y el ML exige responsabilidad: estos sistemas robustos y complejos pueden causar fácilmente tanto daño como bien cuando se utilizan mal.
Construir con IA significa enfrentarse a retos técnicos y éticos que a veces (pero no siempre) van de la mano. A continuación, analizaremos algunas de las limitaciones más acuciantes del uso de la IA en la actualidad.
Resumen de las limitaciones técnicas y éticas de la IA
Aunque «el cielo es el límite», utilizar IA y ML es muy parecido a lanzar un cohete al espacio, ya que determinadas condiciones pueden provocar rápidamente una catástrofe.
Es complejo, costoso y requiere mucha supervisión, ya que surgen problemas como las alucinaciones, que son uno de los varios problemas inherentes a la IA potente.
También pueden surgir problemas éticos, lo que no debería sorprendernos si tenemos en cuenta titulares como Científicos utilizan la IA GPT para leer pasivamente los pensamientos de las personas.
Las cuestiones éticas y técnicas se entrecruzan a menudo, pero los problemas pueden pertenecer a una u otra categoría.
Limitaciones técnicas de la IA en la empresa
Los problemas técnicos varían, y la mayoría de ellos surgen de la complejidad y el alcance del rendimiento a escala. Trabajar sistemáticamente con capas de lógica que pueden realizar funciones avanzadas implica un gran número de piezas móviles.
La calidad y cantidad de los datos crean cierto grado de imprevisibilidad
Una de las limitaciones más evidentes de la IA en las empresas proviene de la cantidad y variedad de los datos. El entrenamiento de un modelo lingüístico como ChatGPT o Bard, requiere un océano de datos y un entrenamiento continuo para producir resultados correctos para los temas en los que están entrenados, además de las copiosas configuraciones sintácticas necesarias para un resultado conversacional en cualquier idioma dado.
No es fácil de explicar por su complejidad
A menudo, varias capas de lógica difusa (es decir, una serie de conclusiones aceptables) son responsables de crear el resultado que se ve en un sistema determinado. Cuando se profundiza en la informática, las funciones matemáticas y de programación son extensas y complicadas.
Un flujo constante de cálculos avanzados se unen para producir los flujos de salida que ves, ya sea una página de contenido escrito en ChatGPT o una imagen hecha por DALL-E. Cuando la salida es el resultado de capas de rangos de datos que se alinean en un momento dado, describir exactamente lo que ocurre y localizar los distintos elementos es laborioso y complejo.
Por eso surgen regularmente nuevos problemas, simplemente porque estos sistemas tienen muchas partes móviles.
Aunque la IA también se utiliza para comprobar y revisar otras IA, probablemente ya sepas por qué esto es un problema. La intervención humana es necesaria para ajustar estos sistemas con regularidad; sencillamente, cuanto mayor es la tarea, más tiempo consume.
El cambio y la ampliación requieren coherencia, algo que escasea
Las perspectivas de los desarrolladores se inculcan de forma inherente en algunos procesos, al igual que los puntos de vista de los datos de formación.
Los hechos duros y constantes suelen ser fáciles de consolidar en el sistema, pero los pequeños matices introducidos con el tiempo cambian el comportamiento. Por ejemplo, supongamos que queremos crear un sistema de visión por ordenador que identifique y registre las formas reconocibles de las nubes en el cielo.
Al principio del entrenamiento de una IA, es muy parecido a enseñar a un niño los conceptos básicos de cómo funcionan las cosas. Los datos de entrenamiento podrían comenzar con un conocimiento básico de que el cielo es:
- Azul
- Sobre ti
Con el tiempo, el sistema aprenderá que el cielo es:
- Diferentes colores en diferentes momentos
- Sólo está por encima de ti mientras estás en el suelo
- Compuesto de varios gases
- Ocupa la misma forma general y el mismo volumen alrededor del planeta
- Etc.
A veces, los nuevos conocimientos «encajan» perfectamente con los ya existentes, pero no siempre es así. Recuerda que, cuando nosotros, como humanos, aprendemos algo, normalmente lo hacemos basándonos en conocimientos relativos, pero en una IA, se basa en cómo se le enseñó a aprender.
Aprender algunos procesos de forma incorrecta, tanto en el caso de las personas como en el de la IA, suele desbaratar cualquier cosa que dependa de dichos conocimientos. Pero con las personas, podemos (a veces) tener una corazonada cuando estamos haciendo algo mal y utilizar nuestras funciones cognitivas para ayudarnos a resolver un problema.
A medida que pasa el tiempo, las personas que apoyan estos proyectos cambian, lo que influye en la forma de integrar la nueva información, la calidad de los datos, la velocidad de entrenamiento y mucho más.
Retos éticos en el desarrollo de la IA
La automatización completa y fiable resulta especialmente atractiva para las empresas, pero actualmente es necesaria la intervención humana rutinaria en cada capa del desarrollo de la IA. Sin personas que trabajen para ajustar y dirigir el aprendizaje, pueden surgir los siguientes problemas éticos.
Un déficit de competencias puede hacer que los problemas se descontrolen
El apoyo a la IA requiere un conocimiento técnico exhaustivo de estos productos y ser consciente de su uso adecuado.
No se envía a un bombero a un edificio en llamas sin formación y equipo, y la IA es muy parecida: de forma similar a cómo se calcula la posición a partir de una señal móvil, múltiples puntos de datos sobre cualquier persona o entidad pueden ser reveladores.
Los proveedores de tecnología de IA y los desarrolladores que utilizan estos sistemas (y, en algunos casos, también el usuario final) pueden utilizar potencialmente determinadas asociaciones para identificar a las personas, además de la información de identificación personal (IIP) conocida y bien definida.
Al igual que las huellas dactilares de los navegadores, múltiples parámetros pueden crear fácilmente asociaciones que identifiquen a una persona o dispositivo. Los métodos no controlados suponen un riesgo para la privacidad de los usuarios y transeúntes si se utilizan de forma malintencionada o cuando se revelan datos de forma involuntaria.
Confiar demasiado en la IA es una pendiente resbaladiza
Es fácil buscar lo fácil. Casi todos los sistemas siguen el camino de menor resistencia, como la electricidad a través de un circuito o un avión o un barco deslizándose por su respectivo medio.
Como humanos, normalmente nos volvemos más eficientes con el tiempo. Algunos argumentan que es pereza, pero no es difícil mirar atrás en la historia de la humanidad y ver que todo lo que nos rodea es el resultado de una capa tras otra de mejoras en la eficiencia.
Aunque la IA no puede desarrollar intrínsecamente un hábito por sí misma, a menos que esté diseñada para ello, puede convertirse en un hábito para nosotros.
- “¿Esto está bien? Hagamos lo que la IA crea que es mejor”.
- «Comunicarse apesta. Haré que ChatGPT hable con mi madre por mí revisando todos los eventos de mi calendario y los mensajes de texto redactados”.
- «Combatir el crimen es difícil. Digámosle a nuestra policía IA lo que es bueno y malo. Todo irá bien».
Con el tiempo, es probable que la IA se utilice junto con alguna metodología de programación inmutable para crear un enjambre de nanobots sensibles que se autorrepliquen utilizando carbono en bruto para acabar con la vida tal y como la conocemos.
Hasta entonces, debemos ir paso a paso. Como sabemos por el proceso altamente automatizado de fabricación de la mayoría de los productos físicos, un pequeño descuido puede correr otro destruir una tirada de producción.
A medida que las soluciones del mercado sigan evolucionando, será necesario que en el futuro inmediato sigan interviniendo manos y ojos humanos para evitar que las cosas se descontrolen.