Discusión sobre la ética en el reconocimiento facial llega a las grandes compañías

22 de Enero de 2020
Guardar
reconocimiento-facial
reconocimiento-facial
Existe una gran discusión entre la comunidad científica y el mercado tecnológico acerca de la tecnología de reconocimiento facial y su uso ético, ya que pone en riesgo la privacidad de las personas y aún no existe la seguridad suficiente para proteger los datos biométricos de la población.

Diversos son los usos del reconocimiento facial, por ejemplo, Face ID, una opción para utilizar los datos biométricos del rostro en vez de contraseñas y así acceder a los productos de Apple; una opción que cada vez más se amplia hasta el punto de poder utilizar los mismos datos para pagar en tiendas con sólo una selfie como ocurre en China.

Sin embargo, estos mismos datos pueden ser usados a favor o en contra de los derechos humanos. El caso de China es el más conocido por su uso poco ético, pues se comprobó, las autoridades utilizan esta tecnología para reconocer a personas pertenecientes a minorías islámicas, como los uigures o kazajos, e internarlos en campos de concentración que hasta la fecha no se han deshabilitado.

No es el único caso, fuerzas policiales registraron los rostros de personas que apoyan las protestas en contra de la ley de enmienda de ciudadanía o CAA, un movimiento en contra del Registro Nacional de Ciudadanos en India, el cual puede ser motivo de discriminación de minorías religiosas e incluso la persecución.

El caso más reciente sucedió en Estados Unidos cuando The New York Times descubrió las acciones de la compañía Clearview AI. La empresa ofrecía desde hace más de un año el acceso a más de tres mil millones de imágenes con rostros de personas obtenidas de redes sociales y que era utilizada por el Buró Federal de Investigaciones (FBI), el Departamento de Seguridad Nacional y compañías privadas de seguridad.

Miles de ciudadanos estadounidenses estaban siendo monitoreados sin saberlo debido al robo de su información biométrica. Aunque la app de Clearview ayudó a la policía de Estados Unidos a resolver miles de casos, se trata de una violación a los derechos humanos.

Cabe agregar, la tecnología sigue en proceso de desarrollo, y han sido varias las declaraciones de activistas en referencia a las fallas en reconocer a personas de color, pertenecientes a minorías o simplemente por el género. Esto vuelve a la tecnología insegura y poco confiable para su uso por parte de la ley.

La discusión llega a las grandes compañías tecnológicas: Sundar Pichai, director general de Alphabet y Google, declaró en una conferencia en Bruselas que la tecnología de reconocimiento facial está prohibida temporalmente en la empresa.

"Creo que es importante que los gobiernos y la ley lo aborden lo antes posible y le den un marco regulatorio", mencionó Pichai en su conferencia, "puede ser inmediato, pero tal vez haya un período de espera antes de que realmente pensemos en cómo se está utilizando". mencionó el director general.

Por el contrario, Brad Smith, director legal de Microsoft, advirtió, la idea de prohibir esta tecnología sería un retroceso. Microsoft ofrece reconocimiento facial como parte de Azure, sus servicios en la nube, con los que Organizaciones No Gubernamentales han podido encontrar a niños desaparecidos.

"Soy muy reacio a decir que evitemos que la gente use la tecnología de una manera que reunirá a las familias cuando puede ayudarlas a hacerlo", declaró Smith para medios, "esta es una tecnología joven. Se mejorará, pero la única manera de mejorarla es desarrollándola, y la única manera de desarrollarla es que más personas la usen".

Otras empresas como Amazon o Apple ofrecen estos servicios con la misma tecnología, pero las prohibiciones del reconocimiento facial ya están ocurriendo en diferentes partes del mundo como en San Francisco o algunos países europeos. A pesar de los usos que algunos gobiernos dan al reconocimiento facial, la tecnología continúa desarrollándose, cabe esperar un mismo desarrollo en sus regulaciones para evitar el miedo a un Gran Hermano.

Archivado en