La Casa Blanca presentó una propuesta que busca que las empresas tengan ciertos marcos en la implementación de esta tecnología.
Ante el crecimiento del uso de la inteligencia artificial, las autoridades en varios países creen que se necesita una regulación, al respecto, la Casa Blanca en Estados Unidos presentó una ‘Declaración de derechos de IA’.
Este plan no es una ley que se deba aplicar directamente sino más bien, una serie de sugerencias que desde distintos sectores ya están debatiendo. Todo esto con el objetivo de crear un marco legal para que las empresas y gobiernos cumplan con ciertos lineamientos en la creación e implementación de esta tecnología.
“Con demasiada frecuencia, estas herramientas se utilizan para limitar nuestras oportunidades e impedir nuestro acceso a recursos o servicios críticos. Los sistemas que supuestamente deben ayudar a la atención de los pacientes han demostrado ser inseguros, ineficaces o parciales” comunicó la Casa Blanca, agregando que algunos algoritmos son usados en decesiones de contratación y crédito que generan desigualdad.
Las cinco propuestas para regular la IA
El gobierno norteamericano presentó cinco principios para proteger a los humanos en medio de este panorama digital, basándose en esa brecha que se puede crear y que las personas deben estar primero.
El primero lo llaman ‘Sistemas seguros y efectivos’ y hace énfasis al derecho a la seguridad de los sistemas considerados ineficaces, por lo que se pide que haya un mayor despliegue para identificar riesgos y complicaciones en su implementación, es decir, crear un plan en el que se confirme que es una inteligencia segura y eficaz de usar.
El segundo es ‘Protecciones contra la discriminación algorítmica’. Con este se busca que los sistemas creados no tengan ningún sesgo y tengan siempre una equidad, esto se debe a que hay casos en los que una IA rechaza a alguien por condiciones de raza, etnia, sexo, entre otros.
El tercero es ‘Privacidad de datos’. Este es un tema en el que hacen énfasis en la necesidad de que los creadores y quienes usan la inteligencia artificial deben proteger los datos de las personas y ellas tener el conocimiento de para qué los están entregando.
El cuatro principio se llama ‘Aviso y explicación’ y consiste en que una persona debe ser consiente de que está utilizando un sistema de este tipo, los desarrolladores tendrán que explicar de forma clara en qué consiste el proceso y notificar de cambios.
Finalmente, el quinto es claro en que las personas deberían poder optar por no participar en dichos sistemas y tener acceso a una “consideración humana oportuna” en caso de que un sistema produzca un error.
La propuesta recibe criticas
Ante la declaración de la Casa Blanca, desde la Cámara de Comercio de Estados Unidos aseguraron que estos puntos pueden representar un problema la industria tecnológica.
“Hay algunas recomendaciones que si los legisladores las promulgan como reglas, podrían poner trabas a la capacidad de Estados Unidos para competir en el escenario global”, afirmó Jordan Crenshaw, vicepresidente de la organización, que realizará su propia propuesta para 2023.
Estados Unidos no es el primer país que empieza un debate sobre este tema de la regulación de la IA. La Unión Europea ya está en proceso para legislar la Ley de IA, que pondrá límites a estos sistemas, un proceso similar por el que está pasando Brasil desde el año pasado.
Empresas prometen que sus robots no serán armas
En un panorama muy similar a este, un grupo de seis empresas de robótica firmó una declaración en la que aseguran que sus productos no se convertirán en armas.
“Nos comprometemos a no armar nuestros robots de propósito general de movilidad avanzada o el software que desarrollamos que permite la robótica avanzada y no apoyaremos a otros para que lo hagan. Cuando sea posible, revisaremos cuidadosamente las aplicaciones previstas de nuestros clientes para evitar el uso potencial de armas”, señalaron las compañías comprometidas en un comunicado.
Quienes firmaron fueron Boston Dynamics, Agility Robotics, ANYbotics, Clearpath Robotics, Open Robotics y Unitree Robotics, todo esto como un mensaje de alerta ante el mal uso que le pueden dar ciertas personas u organizaciones a los proyectos que ellos desarrollan.
Fuente: Infobae
No hay comentarios.:
Publicar un comentario
Los comentarios con contenido inapropiado no serán publicados. Si lo que Usted quiere es realizar una consulta, le pedimos por favor lo haga a través del link de Contacto que aparece en este blog. Muchas gracias