“IBM se opone firmemente y no tolerará el uso de ninguna tecnología de reconocimiento facial, incluida la ofrecida por otros proveedores, para la vigilancia masiva, el perfil racial, las violaciones de los derechos humanos y las libertades básicas, o cualquier propósito que no sea coherente con nuestro valores y principios de confianza y transparencia”.
Las palabras son parte de una carta que Arvind Krishna, CEO de IBM, envió al Congreso de los Estados Unidos.
Krishna dice, además, que “es el momento de comenzar un diálogo sobre si las agencias de aplicación de la ley deben emplear la tecnología de reconocimiento facial; y cómo”.
Además, según le dijo el ejecutivo a The Verge, la compañía tampoco seguirá desarrollando o investigando en tecnología de reconocimiento facial.
El reconocimiento facial en el centro del debate
Este tipo de software está siendo muy cuestionado estos días en medio de las protestas raciales y temores a violaciones de la privacidad.
La tecnología ha mejorado notablemente en la última década gracias a los avances en inteligencia artificial.
Al mismo tiempo, se ha demostrado que la tecnología, debido a que en la mayoría de los casos está siendo desarrollada por compañías privadas con poca regulación o supervisión de los estados, tiene prejuicios en función de la edad, la raza y el origen étnico, lo que puede hacer que las herramientas no sean confiables.
Hay numerosos estudios realizados en los últimos años que demuestran algo de todo esto.
Por ejemplo, una investigación de 2018 realizada por Joy Buolamwini y Timnit Gebru reveló que muchos sistemas de reconocimiento facial (incluido el de IBM) tenía fallas graves de sesgo a la hora de la detección de las imágenes.
Otro informe, en este caso del Instituto Nacional de Estándares y Tecnología, de 2019, encontró “evidencia empírica de la existencia de un amplio rango de precisión en las diferencias demográficas en la mayoría de los algoritmos de reconocimiento facial actuales”.
Una investigación del año 2017 ya decía que el sistema de reconocimiento facial que utilizaba el FBI era “racista”.
Violaciones a la privacidad
La tecnología de reconocimiento facial también ha sido criticada por su papel en las violaciones de privacidad.
Rekognition, el software de reconocimiento facial de Amazon que es el más común entre las fuerzas del orden en los Estados Unidos, también ha sido muy criticado por su precisión.
En 2018, la Unión Estadounidense de Libertades Civiles descubrió que Rekognition identificó incorrectamente a 28 miembros del Congreso con rostros elegidos entre 25.000 fotografías públicas, por ejemplo.
Otra compañía, Clearview AI, también ha sido muy criticada porque se descubrió que su herramienta de reconocimiento facial, construida en base a 3 mil millones de imágenes compiladas –en parte– a partir de sitios de redes sociales, estaba siendo utilizada por empresas del sector privado y público, sin autorización.
Desde entonces, Clearview ha sido el objetivo de decenas de demandas por violación de privacidad.
Facebook también está en la lista: en enero de 2020 debió pagar 550 millones de dólares para resolver una demanda colectiva por el uso ilegal de tecnología de reconocimiento facial.
IBM y Flickr
IBM no estuvo al margen todo estos años. En 2018 se descubrió que compartía un conjunto de datos para el desarrollo de sus programas usando casi un millón de fotos tomadas de Flickr sin el consentimiento de las cuentas.
IBM dijo que los investigadores sólo tenían acceso al conjunto de datos y no a cada imagen en particular y que únicamente usaban las que estaban disponibles públicamente. La compañía también dijo que los usuarios podían optar por no participar en el programa.
Volviendo a la carta en el Congreso, IBM reconoce que la inteligencia artificial es una herramienta “poderosa” que ayuda a la seguridad, pero considera que es una obligación de quienes desarrollan los sistemas asegurarse de que en su utilización no se generen prejuicios, en especial al ser usados por fuerzas de seguridad.
La mayor responsabilidad de IBM (y de allí el sentimiento de culpa que hoy siente) es que usó en forma secreta imágenes de las cámaras de circuito cerrado de la policía de Nueva York.
Con esa información llevó adelante el desarrollo de sus programas de tecnología de vigilancia y búsqueda de personas según su información corporal, como edad y tono de piel.
Esto se conoció en 2018 en una investigación que publicó The Intercept en base a información clasificada de la empresa y testimonios de la policía de Nueva York.
Aunque IBM hizo público el software de análisis de video para buscar personas, no había dicho que, antes, usó imágenes de la policía para desarrollar el sistema.
Aquí es donde está el mayor problema en el avance (aparentemente sin freno) de esta tecnología: cuando las compañías privadas y los gobiernos se unen para este tipo de desarrollos de vigilancia sin ningún tipo de control o supervisión.