"Inteligencia Artificial y automatización, el gran desafío ético y moral para los CEO en el mercado “postapocalíptico”

Históricamente siempre nos ha fascinado y “causado temor” la idea de “el fin de los tiempos”, ese último acontecimiento en nuestras vidas que acabará con todo la sociedad como la conocemos, del que nadie puede escapar y que ha sido impulsado a través de constructos tan antiguos como la religión, llegando a tiempos más modernos donde se ha  plasmado con distintas e interesantes perspectivas en grandes producciones de entretenimiento como Black Mirror, Terminator, Matrix, entre otros, bajo el concepto del mundo postapocalíptico, donde la sociedad actual llega a su fin, siendo reemplazada por las máquinas, una realidad que pareciera ya estar a pocos años de ocurrir. 

    

La sociedad en general teme actualmente al efecto negativo de la IA en el mercado laboral, con la idea de perdida masiva de empleos a manos de esta tecnología y la relación que este efecto tiene con vivir en un mundo dominado por robots y máquinas de todo tipo, que harán todo por las personas hasta el punto de volverlas completamente inútiles como seres humanos incapaces de pensar por sí mismos, y terminando con sus fuentes de ingresos y sustento, lo que llevaría a un caos generalizado. Bajo ese concepto, solo las grandes corporaciones e individuos con grandes recursos económicos, tendrán el “control” de la IA, y así dominarán el mundo a su antojo. 

 

Pero, si nos centramos menos en la “ficción” y más en la realidad, el panorama desafortunadamente no mejora, ya que muchas de estas ideas se proyectan en la sociedad a partir de las posiciones arbitrarias o desafortunadas por parte de personajes como Sam Altman (OpenAI), Jen-Hsun Huang (NVIDIA), Sundar Pichai (Google) o Mark Zuckerberg (Meta),  reconocidos CEOs del entorno que impulsa  la adopción de la inteligencia artificial, quienes de forma muy despreocupada comunican al mundo la idea de que la IA simplemente es el futuro, e inevitablemente causará la perdida de miles de trabajos y que lo debemos aceptar así no más, lo que demuestra que estos empresarios en realidad solo buscan un beneficio económico, pasando por encima de las leyes de copyright, la privacidad y bienestar de las personas y empresas,  ignorando por completo el impacto inmediato en los mercados, y sin tener en cuenta los elevados costos energéticos y las altas demandas de nuevo hardware para su computo, que impactan fuertemente el medio ambiente  de estos modelos, sumado a la falta de control real sobre las acciones que la IA puede llevar a cabo, con varios casos ya reportados de instancias en las que estos sistemas se han autoprogramado con el fin de saltarse comandos de auto apagado, entre otras instrucciones que buscaban salir del control del operador. 

 

Ante una situación que presenta tantas aristas negativas, debemos poner la mirada más objetiva y positiva al respecto para darle la vuelta, y es que muchos CEOs no se dan cuenta que nunca antes han tenido una oportunidad tan grande, donde convergen tantas herramientas tecnológicas avanzadas, una fuerza laboral altamente capacitada, muchas fuentes de financiación, y todo tipo de canales de comunicación con sus shareholders y stakeholders, lo que les permitirá llevar sus organizaciones al siguiente nivel si desarrollan una sinergia sana entre todos estos elementos. El rol de las empresas es construir y contribuir al desarrollo de la sociedad, no solo incrementar sus ganancias económicas sin límite, por eso deben pensar primero en el impacto de sus acciones a nivel social con una perspectiva ética y moral. Esta forma de abrazar la automatización, especialmente cuando se trata de IA, le puede dar una ventaja competitiva a las empresas, porque tendrán siempre personas responsables por el resultado final, con las que pueden trabajar para mejorar los procesos automatizados sin tener la presión de que estos modelos de IA se vuelvan en su contra. Además, esto puede traer la creación de nuevos puestos de trabajo, para personal especializado en implementación y mantenimiento de modelos con inteligencia artificial, que tengan más en cuenta el trabajo en equipo, con los colaboradores humanos. 

  

Las herramientas de automatización, sin excepción, nunca tendrán “responsabilidad” por sus acciones y resultados, las IA no firman un NDA (non-disclosure agreement), un documento fundamental para proteger la información y propiedad intelectual de la compañía. Vemos el caso de Air Canada, empresa que dejó en manos de un chat-bot con IA el soporte “abierto” para pedir reservaciones de tiquetes aéreos, y este bot le ofreció a un usuario un descuento especial, con el que podía recibir una mejor “tarifa por duelo”, que se puede dar cuando un cliente viaja a un funeral por el fallecimiento inminente de un familiar, pero cuando el usuario intentó solicitar dicho descuento, le indicaron que esto no era posible, debido a un error en la información, por lo que decidió llevar el caso a términos legales, donde el juez terminó fallando a su favor, ya que dio por valida esa política indicada por la IA, a pesar de que Air Canada indicaba como defensa que, la IA era responsable de sus actos y no ellos, generando así un golpe financiero a la aerolínea y un importante precedente para otras empresas. 

 

Por otro lado, una tecnología como la IA puede crear una alta dependencia, y si esta herramienta deja de funcionar por 1 o 2 días, el nivel de afectación será bastante alto, ya que este modelo tiende a desconectar a las personas de muchas responsabilidades y a mover altos volúmenes de producción, por lo que los pocos empleados disponibles para continuar con esas tareas van a quedar en una muy mala posición para responder a la demanda mientras la IA vuelve a estar en línea. Sumado a esto, los marcos legales actuales no cubren aún procesos basados en acciones realizadas por una IA, si no por personas, lo que puede causar perdidas de propiedad intelectual o violaciones de la misma. 

 

No solo por el hecho de tener una tecnología a nuestra disposición significa que debemos usarla ciegamente porque es muy fácil de utilizar, y un ejemplo de esto lo vemos en la posición del CEO de Duolingo, quien orgullosamente anunció el despido de una gran cantidad de sus empleados, porque simplemente ese trabajo lo puede hacer una IA ahora. Sin embargo, la reacción de las personas fue brutal en redes sociales, dejando muy mal parada a la compañía y su CEO ante los usuarios de la plataforma y sus empleados, a tal punto de tener que hacer una campaña de redención y tener que anunciar que era un malentendido y que nuevamente estaban contratando personas porque el éxito de su plataforma se debía a estas. 

 

Pensar que una IA, por ser más rápida en sus cálculos, está automáticamente más capacitada que una persona para desarrollar una tarea, no es algo objetivo, y la transición y adaptabilidad para automatizar cualquier proceso necesita tiempo, porque no podemos darle la espalda al legado que ha construido una empresa por simplemente glorificar la IA, o por decir que la usa de alguna manera, mostrando con orgullo como despidió a las persona que antes hacían ese trabajo, teniendo en cuenta que simplemente es un servicio que un tercero ha desarrollado (y no su propia innovación), pero cuando la empresa logra hacer una implementación adecuada, pensando en innovar en sus procesos ayudándose de la IA, la perspectiva es muy distinta. 

 

La responsabilidad no es solo de los CEO, si no de los colaboradores, que deben integrar la IA en sus procesos sin verla como una amenaza, pero dándole sentido en la optimización de los procesos que actualmente llevan a cabo, y siendo voceros de cómo ven ellos la integración de esta tecnología en sus campos de acción. 

 

Por último es importante la transparencia en el uso de estas herramientas, dejando claro en qué procesos se ha implementado, para evitar desastres de reputación y estabilidad de la empresa, como en el caso de Builder.ai, una empresa que ofrecía la creación de código para desarrollar aplicaciones 100% con IA, pero luego de caer en un escándalo, de malos manejos financieros y prácticas poco éticas, se descubrió que la mayoría del trabajo lo realizaban personas tercerizadas en la India, engañando así a inversionistas y usuarios, dando una falsa idea de que la IA podía generar tal cantidad de trabajo sin errores, sin reconocer el trabajo humano. Sin embargo, estos casos de falta de transparencia, se dan en varios entornos, con ejemplos como el de Gayanne Potter, reconocida profesional de locución de Escocia, que se dedica a poner su voz para distintos servicios, y que se sorprendió al escuchar un sistema automatizado en el tren donde se transportaba, usando su voz para anunciar varias alertas a los pasajeros, porque una empresa para la que realizó trabajos de locución en el pasado, usó su voz a través de una IA sin su consentimiento, lo que le ha generado gran afectación a nivel emocional y laboral. Además, es importante pensar en el impacto hacia los clientes y los niveles de servicio, en situaciones donde la interacción humana pueda ser reemplazada de alguna manera por una IA, siendo transparentes al indicar si se está interactuando con una maquina o con una persona. 

 

Puede que, como CEO, no puedas hacer mucho para acabar con los zombis, pero cuando se trata del mercado postapocalíptico dominado por las maquinas, si tienes todo el poder para ser el siguiente John Connor al pensar primero en las personas, y luego en cómo la tecnología les puede ayudar para mejorar a la empresa, impactando positivamente en la sociedad. 

Picture of Sergio Cáceres Velasco

Sergio Cáceres Velasco

Production Manager
Red Design Systems

Compartir

Desde la visión estratégica del CEO hasta las historias reales de marcas que están haciendo marketing en serio.

Suscríbete al newsletter y recibe cada edición con insights, herramientas y tendencias listas para aplicar.









      Suscríbete al newsletter y recibe cada edición con insights, herramientas y tendencias listas para aplicar.

        Subscribe to the newsletter and receive each edition with insights, tools and trends ready to apply.