Por Adán Salgado Andrade
Desde hace algunos años, la llamada Inteligencia Artificial, IA, ha sido el centro de atención, como si fuera un nuevo hito en los avances científicos, tratando de aplicarse en todo, hasta en la guerra, con tal de que las armas del futuro “piensen” por sí mismas y asesinen al enemigo, sin necesidad de ser operadas por humanos(ver: http://adansalgadoandrade.blogspot.com/2015/08/inteligencia-artificial-otra.html).
También, la IA, está aplicándose en procesos industriales, con tal de que las tareas que antes ejecutaban, digamos, mil obreros, ahora las hagan unas cuantas máquinas-robots y hasta en menos tiempo. Eso conlleva una contradicción, pues el capitalismo salvaje se alimenta del consumismo y al haber menos gente trabajando, como pretende hacer con la IA, habrá menos consumo y las crisis económicas, que de por sí se dan a cada rato, serán aún más frecuentes y profundas (ver: http://adansalgadoandrade.blogspot.com/2019/01/al-capitalismo-salvaje-no-le-perturba.html).
Ese par de circunstancias, de entrada, mostrarían que la IA, no es, precisamente, inteligente, pues siendo un avance tan importante, no permitiría que la aplicasen para desarrollar una mortífera arma o para quitar de sus trabajos a millones de personas.
Por otro lado, realmente no se ha logrado aún que una máquina, un robot, por ejemplo, piense por sí misma. Todo se reduce a un “entrenamiento” en donde esa máquina es retroalimentada con infinidad de datos, de los cuales, sacará una “conclusión”.
Y a pesar de que se le toma como infalible, se equivocan. Es lo que sucede con los identificadores de rostros, que han dado negativos, marcado a personas inocentes, como delincuentes buscados por la policía. Eso sucedió en junio del 2020, cuando se arrestó equivocadamente al afroestadounidense Robert Williams, a quien un algoritmo de reconocimiento facial lo inculpó de un crimen cometido por otra persona. Fue arrestado y, cuando se comprobó el “error”, la policía le pidió disculpas y lo soltó. Pero no le deben de haber quitado las molestias y el susto que le ocasionaron (ver: https://theconversation.com/why-facial-recognition-algorithms-cant-be-perfectly-fair-142608).
Y en muchas cosas, robots o máquinas dotadas de IA se equivocan. Desde hace años, por ejemplo, existen robots industriales los cuales, en efecto, son más eficientes, veloces y precisos en la fabricación de automóviles. Pero en una fábrica de autos de VW, en el 2015, uno de ellos, mató a un ingeniero que lo estaba instalando. El robot lo confundió con una pieza, apretándolo mortalmente entre sus pinzas (ver: http://www.jornada.unam.mx/2015/07/02/economia/022n4eco).
Y así, son frecuentes las “equivocaciones” de la IA. Lo vemos, incluso, con el autocorrector de nuestros celulares, cuando estamos escribiendo un mensaje, que puede “corregir”, por ejemplo, “jueves venir”, en lugar de “puedes venir”. Y son muy frecuentes esas malas “correcciones”.
El mismo Stuart Russell, considerado el padre de la IA, señala que “si un robot sólo tiene como meta lograr aquello para lo que se programe, no vacilará en hacer cosas incluso absurdas. Supongamos que un robot doméstico debe de hacer la comida y, al ver que ya no hay alimentos en el refrigerador, toma al gato de la familia y lo mete al horno de microondas. Si eso sucediera, nadie querría tener una cosa así”.
Buen ejemplo de que la IA, si no es dotada de “valores éticos”, como el mismo Russell señala, cometerá “equivocaciones”, que podrían redundar en cuestiones graves.
Allí están los “accidentes” de los pilotos automáticos, con los que están dotados autos como los Tesla, y que han sido mortales para sus ocupantes, confiados en que sus autos se “manejarían solos”. Todavía distan mucho de existir los autos que sean verdaderamente autónomos y que puedan reaccionar ante cualquier eventualidad (ver: http://adansalgadoandrade.blogspot.com/2021/01/los-autos-autonomos-aun-no-son.html).
Quizá por todas las consideraciones anteriores, Kate Crawford, investigadora de la Universidad de California del Sur y de Microsoft, experta en IA, haya publicado un libro recientemente, en donde expone que la IA, ni es inteligente, ni artificial.
Es lo que expone el artículo de Wired titulado “Esta investigadora dice que la IA no es artificial, ni inteligente”, firmado por Tom Simonite, quien agrega que “Kate Crawford, que trabaja en la Universidad de California del Sur y en Microsoft, dice en un nuevo libro que incluso los expertos que trabajan en esa tecnología, malinterpretan a la IA” (ver: https://www.wired.com/story/researcher-says-ai-not-artificial-intelligent/).
Comienza señalando Simonite que “las empresas tecnológicas gustan de mostrar a la inteligencia artificial como una precisa y poderosa herramienta para el bien. Kate Crawford dice que eso es un mito. En su libro Atlas de la IA, visitó una mina de litio, una bodega de Amazon y un archivo del siglo diecinueve de cráneos, para ilustrar los recursos naturales, el esfuerzo humano y la ciencia mala, que están como soportes de la tecnología. Crawford, profesora de la Universidad de California del Sur e investigadora en Microsoft, dice que muchas aplicaciones y los efectos colaterales de la IA, necesitan revisarse urgentemente”.
Crawford hace hincapié en que el indiscriminado empleo de la IA en todo, es equivocado, “pues la IA ni es artificial, ni es inteligente. La IA, está hecha de vastas cantidades de recursos naturales, combustible y trabajo humano. Y no es inteligente en la forma en que lo es un humano. No es capaz de discernir cosas, sin un extensivo entrenamiento humano y tiene una total diferente lógica estadística de cómo el pensamiento se hace. Desde el principio de la IA, en 1956, hemos ocasionado este terrible error, una especie de pecado original de ese campo, pensar que las mentes son como computadoras y viceversa. Asumimos que estas cosas son análogas a la inteligencia humana, algo muy alejado de la realidad”.
Justo es lo que comento arriba, esa IA, es producto del entrenamiento, pero cuando se topa con consideraciones fuera de él, se cae o comete errores, muy graves varias veces.
Crawford señala que esa mala consideración se generalizó desde los 1980’s, cuando “era común utilizar colecciones de datos sin tener un real conocimiento de qué había dentro o concerniente a la privacidad. Era sólo material en bruto, reusado en miles de proyectos”.
He ahí el ejemplo de los algoritmos “reconocedores de caras”, que se equivocan muchísimo.
Y todo eso evolucionó, dice Crawford, en simple extracción de datos, que se aplican por igual en todo. “Una oración en Reddit, tendrá significado distinto, que si está en un libro para niños. O las fotos de caras, tienen distintas historias que aquellas de Óscares, pero se usan indistintamente. Esto ocasiona muchos problemas. En el 2021, aún no existe un estándar en la industria para aclarar qué tipo de datos deben de usarse para entrenar a las máquinas o cómo se les adquiere o los potenciales problemas éticos”.
Sí, muy claro, pues sólo “entrenan” a las máquinas con infinidad de datos, sin discriminar de dónde provengan y a quién puedan afectar, al almacenarlos en los terabytes de una computadora. Eso, en efecto, dista de ser inteligencia artificial. Un identificador de rostros, no podría decidir si alguien está contrariado o triste, sólo “identificaría” a esa persona y, eso, sólo si lo hace bien.
Precisamente señala, sobre las emociones, que la cuestión de que los reconocedores de rostros pueden identificarlas, es absurdo. “Una máquina no puede decidir si alguien que entra a una tienda es un potencial ladrón, tan sólo porque pueda ‘detectar’ sus emociones. Pero es lo que, desgraciadamente, se hace”.
Y eso, identificar las emociones, es algo también que se ha mal caracterizado, pues proviene del pasado, “por la frenología, lo absurdo de caracterizar la personalidad por la forma de la cara y del cráneo”.
Se refiere a la tendencia que existía en el siglo 19 y principios del 20, de caracterizar a alguien, un delincuente, por ejemplo, por la forma de su cara y su cráneo, algo que, de entrada, estigmatizaba a alguien que poseyera una cara o un cráneo, similar al que los “investigadores” calificaban de delincuente.
Investigadores de Google, fueron despedidos de esa empresa por cuestionar los alcances de la IA, sobre todo, en sistemas militares. Sobre eso, Crawford señala que la IA está siendo monopolizada por poderosas empresas que quieren imponer sus mezquinos intereses, sin tomar en cuenta los daños que puedan provocarse. “No podemos permitir la existencia de herramientas que ocasionan daños y que están totalmente desreguladas”.
Le pregunta Simonite a Crawford si es todavía útil la IA, a lo que ella responde que, “en algunas cosas, es totalmente eficiente, como sacar una estadística con el programa Excel, pero todo debe de ir contextualizado, con su propia lógica, su propia política y sus propias ideologías, de las cuales, la gente rara vez se entera”.
Pero dice que tiene confianza en que ese manejo indiscriminado, centralizado dela IA, deje de serlo, pues “hay activistas e investigadores que ven que la interrelación entre capitalismo y computación es vital para que haya justicia climática, derechos laborales y justicia racial”.
Lo dice en el sentido de que si sólo se deja que el capitalismo salvaje maneje a su antojo a la IA, los problemas que tenemos empeorarán, en lugar de mejorar.
Muy claro es eso, cuando el mezquino Jeff Bezos emplea robots, dotados de IA, en sus bodegas, para que interactúen con sus trabajadores y obliguen a éstos a trabajar más rápido.
O de qué sirve que una depredadora minera o una contaminante petrolera “optimicen” sus actividades con IA, con tal de obtener más ganancias, si siguen destruyendo al planeta.
O que se aplique la IA para desarrollar robots militares – como ya se hace – para que maten más eficientemente al enemigo.
Nada de eso, en efecto, tiene que ver con acciones “inteligentes”.
Así que eso llamado inteligencia artificial, debería mejor ser llamado estupidez real.
Contacto: studillac@hotmail.com