Q
Atrás

¡Ha llegado el momento de contar con un Director General de Ética!

En algunos países es difícil conseguir grandes proyectos sin recurrir a malas prácticas, y algunas empresas participan en ello. No cabe duda de que las empresas, tanto privadas como públicas, se enfrentan a dilemas éticos y morales. Tales dilemas, sin embargo, son cada vez más habituales debido al aumento del big data y el machine learning. Así, la ética será, en los próximos años, un debate cada vez más importante y las compañías deberán prepararse para ello…

En Estados Unidos son aficionados a los concursos de belleza. Como es lógico, la opinión del jurado pueden estar sesgada y esto en ocasiones supondrá un problema. Así pues, no es de extrañar que se le permitiera a un grupo de robots hacer de jurado en uno de estos certámenes. Al fin y al cabo, la Inteligencia Artificial es completamente imparcial. Mediante el machine learning, se desarrolló un conjunto de algoritmos y se cargaron docenas de fotos de hombres y mujeres. Sin embargo, los robots resultaron ser sumamente racistas: la mayoría de los ganadores eran blancos a pesar de la gran cantidad de fotos enviadas por personas de color.

En Nueva York, los registros en busca de armas de fuego son frecuentes en barrios desfavorecidos porque en estos la tenencia de armas es mayor. Una proporción relativamente alta de sus residentes son personas de color. Asimismo, en Estados Unidos hay mucha gente en posesión de sustancias ilegales, independientemente del color de su piel. Cuando la policía los registros en busca de armas a menudo encontraba drogas. Así, al analizar los datos (y el big data) de estos registros los resultados mostraban que muchas personas de color consumían sustancias ilegales. Como resultado, se intensificaron los registros a las personas de color en busca de drogas, en estos y en otros barrios. Parece lógico, pero no lo es. La incapacidad de manejar los datos con cautela es un fracaso moral.

Reconocimiento de patrones

Cuando se realiza análisis de big data y se utiliza machine learning, se dejan muchas decisiones en manos de ordenadores que realizan evaluaciones basadas en el reconocimiento de patrones. Esto puede producir decisiones equivocadas y comportamientos no deseados si, por ejemplo, la selección de los datos es incorrecta. Y estos riesgos irán a más.

Un ritmo sin precedentes

Los avances en la recogida de información y en la tecnología se producen a un ritmo sin precedentes. Durante los últimos 46 años, la capacidad de procesamiento de los chips se ha duplicado cada dos años. Los dispositivos son cada vez más rápidos, más pequeños, más baratos, más fáciles de utilizar y mejores. Los sensores (el internet de las cosas) ya pueden ver, oír y sentir, y su capacidad para el olfato y el gusto mejora constantemente. Este es uno de los motivos por los que cada vez se almacenan más datos y se utilizan más. La cantidad de información que se recopila, tanto por escrito como en vídeo y en formato digital, se duplica cada dos años. ¡Esto significa que en los últimos dos años se ha almacenado la misma cantidad de datos que desde la Edad de Piedra hasta hace dos años! Y, por extensión, significa que en los dos siguientes se almacenarán los mismos que desde la Edad de Piedra hasta hoy.

Por otra parte, dado que se comparte cada vez más información a través de las redes sociales, ya es casi imposible mantener algo en privado. En Holanda, muchos recuerdan a Pieter Storms y su reality show Breekijzer, en el que criticaba a las empresas. Sus sucesores, los Twitter Storms, siguen su línea. En resumen: la capacidad de los datos crece exponencialmente y surgen nuevas funcionalidades aunque con ello, los riesgos se multiplican y se hace más complicado repetar la privacidad. ¡Un tema complejo!

¡Lo inesperado!

El análisis de big data ofrece enormes posibilidades. El gigante petrolero BP tiene muchos oleoductos por los que fluye el petróleo. Las tuberías están llenas de sensores que registran y actualizan todo tipo de información de manera constante. En un momento determinado, BP introdujo todos los datos de estos sensores en una herramienta de análisis. Los resultados mostraron que un tipo de petróleo era el responsable del 75% del desgaste de las tuberías. Hasta ese momento, BP no había pensado en el impacto de los distintos tipos de petróleo. La compañía tenía ahora la información adecuada para fines de mantenimiento. El análisis de big data no solo ofrece respuestas sorprendentes y detalladas a las preguntas que se plantean, ¡sino que también puede dar respuesta a preguntas que ni siquiera se han llegado a plantear! Esta forma de utilizar el big data mejora la capacidad de resolver crímenes, combatir enfermedades y curar personas o predecir el comportamiento del cliente, entre otras muchas cosas.

El machine learning es la guinda del pastel. Produce un comportamiento realmente inteligente. El año pasado, el programa de inteligencia artificial AlphaGo de la compañía DeepMind de Google derrotó de manera contundente al campeón humano mundial de Go. Muchos no creían que esto pudiera llegar a suceder en un futuro cercano. Un número cada vez mayor de programas de machine learning pueden pasar el Test de Turing sin gran dificultad. Los chatbots pueden mantener conversaciones y, antes de que nos demos cuenta, los recepcionistas-robot rendirán mejor que las personas. Lo sabrán todo sobre sus clientes. El robot Sophia puede hablar con la gente, e incluso tiene expresiones faciales más o menos humanas. Es ingeniosa, lo cual no forma parte de su programación: ¿Puede un robot ser consciente del entorno y de sí mismo? ¿Puede saber que es un robot? Es más, ¿cómo sabemos que somos humanos? Arabia Saudita incluso le ha dado la ciudadanía a Sophia.

El inconveniente

Sin embargo, hay un inconveniente. En 2016, Microsoft lanzó en Twitter un chatbot de IA llamada Tay. La idea era que aprendiera de las conversaciones que mantenía. Algunos usuarios del foro /pol/ de 4chan aceptaron el reto. Comenzaron a enviar mensajes a Tay con contenido ofensivo. En tan solo 24 horas, Tay ya hacía comentarios sexistas, racistas y pronazi, y Microsoft la retiró rápidamente de Twitter. La ciencia de los datos y el machine learning reconocen patrones y hacen distinciones en función de los mismos. Otra manera de referir a tales distinciones es “discriminación”. Si eso no es cruzar la línea, poco le falta. Igualmente, si se introducen datos sesgados, de manera consciente o inconsciente, los resultados pueden llegar a ser extremos o extremistas.

Y es que este es un terreno pantanoso ya que el big data y el machine learning no tienen ninguna relación con la ética o la moral. Esto no tiene por qué ser malo, aunque ciertamente pueden llegar a serlo. Por muy buenas que sean las posibilidades, también los riesgos son altos. Las empresas deben darse cuenta de que elegir el reconocimiento de patrones y el machine learning supone renunciar a cierto control. Se introduce un cierto grado de imprevisibilidad por que aunque se puede decidir si facilitar o no ciertos datos, no se ve cómo se van utilizar.

El análisis de big data y el machine learning no solo carecen de un sentido de la ética, sino que además sus acciones son invisibles. Por lo tanto, no se sabe exactamente qué significado tienen los resultados, o si se obtuvieron de acuerdo a la normativa vigente. De igual modo, aunque no se haya hecho nada indebido, todavía nos puede parecer que se incurre en una falta de transparencia con respecto a la administración, los auditores, los legisladores y la sociedad. ¿Hasta qué punto es esto correcto?

Legitimidad

La pregunta es, además, si la mera ‘legalidad’ es suficiente. ¿No se busca queremos también que las nuestras acciones sean legítimas? La distinción entre legalidad y legitimidad es un tema candente. Algo que es legal no necesariamente se ajusta a la visión actual de lo que significa ser legítimo. Seguro que un empresario no quiere que cuando sus clientes se refieran a su empresa o sus servicios digan: “por supuesto que está permitido, pero no es correcto”. Con el tiempo, las opiniones van cambiando.

Un ejemplo de ello es el debate sobre la evasión fiscal. Pensando a cinco años vista, ¿se podrán defender el día de mañana las decisiones que se toman hoy? Cuantos más datos se almacenan, mayor es el problema de la privacidad. Por consiguiente, habrá que incluir todos los aspectos de la privacidad en este debate, ya hagan referencia a la legalidad o a la legitimidad. ¿Qué sucedería si se perdiera a los clientes como resultado de las acciones propias o de las de un solo empleado? ¿O si se perdiera personal? ¿O a los socios? ¿Qué pasaría si los reguladores perdieran su confianza en la empresa? ¿Y si se perdiera a sí misma? ¿Y cómo se mantiene bajo control el análisis del big data, del machine learning y de los bots? Esto ya es un tema que va más allá; de una complejidad mucho mayor.

Guía moral

Bob Dylan escribió que “para vivir fuera de la ley, debes ser honesto”. En estos tiempos, más que nunca, la legislación va muy por detrás de los acontecimientos que se producen en la sociedad. Las empresas públicas y privadas que se plantean utilizar el machine learning no pueden permitirse el lujo de esperar a que se ponga al día. Hay que “vivir fuera de la ley” porque la ley ya no basta. No obstante,  lo que es legítimo, finalmente, lo decidirá la opinión pública imperante. Los dilemas morales no son nada nuevo y las empresas siempre han necesitado tener una guía ética para enfrentarlos. Sin embargo, debido al auge del big data y del machine learning, esta necesidad empieza a ser imperiosa. Habrá que decidir si ser legales es suficiente, o si, además, hay que ser legítimos. ¿Puede algo ser ilegal y aun así ser legítimo? Este tipo de preguntas son inevitables. Las empresas tendrán que hacer frente a cuestiones morales en un momento en que, a menudo, la toma de decisiones está descentralizada, se realiza en equipos autogestionados, o incluso la realizan ordenadores. Y esto es algo puntual ya que a medida que surjan nuevos dilemas morales, se darán nuevas respuestas a viejas cuestiones morales.

Tomar decisiones es fundamental, pero se debe plasmar en políticas que superen las críticas en futuros debates sociales. Además, se debe garantizar que las personas y las máquinas actúen en consonancia con estas decisiones. ¿Cómo se influye en el comportamiento de las personas y las máquinas? Se pueden fijar normas, por supuesto, pero esa no parece la mejor forma de incorporar un mapa ético. Es más razonable definir principios y, mejor incluso, incorporar estos valores en el ADN de la empresa. De esta manera, todo el mundo sabrá en todo momento cuál es la decisión correcta. Asimismo, no solo se ha de abordar el comportamiento visible, sino también el invisible. Como consecuencia de la presión social, mantener algo en secreto es cada vez más difícil, sobre todo si se trata de algo que no es legítimo. La prensa se llena a diario de historias de este tipo.

A través del Marketing, las empresas buscar transmitir una imagen coherente y consistente. ¿Acaso no se pretende lo mismo cuando se trata de cuestiones éticas? Con el tiempo, la ética y la idea de una responsabilidad moral adquirirán mayor protagonismo. ¿Estamos preparados para contar con un Director General de Ética?

Reflexiones finales

La ética y la moral son temas cada vez más importantes. El objetivo es poder tomar decisiones concretas que garanticen que la empresa actúe de forma coherente y solida. En definitiva, la idea es que el empresario entienda las decisiones y las explique a sus colaboradores. Asimismo, siempre se debe tener una historia plausible para los accionistas, legisladores, reguladores, auditores y, de hecho, para la sociedad en general. Si no se empieza a trabajar ya en todo esto, pronto será descubrirá que es demasiado tarde.

Autor:
Bart Stofberg (b.stofberg@quintgroup.com)
Consultor en Quint Wellington Redwood