X

¡Hola! Bienvenidos a nuestro sitio web THE FOOD TECH


Lo invitamos a que actualice su versión de Internet Explorer, ya que este sitio no es compatible con la versión 11 o anteriores.


Como alternativa le sugerimos utilizar cualquiera de las siguientes opciones para navegar el sitio:

Vaticano e IBM promueven la inteligencia artificial ética

 |   junio 2, 2020
industria-alimentaria-hoy
Industria alimentaria hoy
Inteligencia artificial


El Vaticano e IBM firmaron el “Rome Call for AI Ethics” un compromiso que subraya la necesidad de la inteligencia artificial ética, que se regule y se base en los intereses y valores humanos.

La inteligencia artificial (IA) es reconocida como una tecnología transformadora, que ha permitido a las empresas y gobiernos mantener un control constante de lo que los humanos están haciendo, por lo tanto, los críticos han planteado varias preguntas sobre su privacidad y ética.

El “Rome Call for AI Ethics” (Llamado de Roma para la ética de la inteligencia artificial) pone el foco en el respeto de la privacidad, la confianza, la transparencia y las necesidades de los seres humanos.

El respaldo de Microsoft e IBM fue sustancial en este primer paso en el desarrollo de una humanización de las nuevas corrientes digitales.

En un comunicado, el vicepresidente ejecutivo de IBM,  John Kelly III, señaló que se debe elegir cuidadosamente a quién beneficiará la IA y  se deben hacer al mismo tiempo importantes inversiones en personas y habilidades.

El ejecutivo dijo que la sociedad tendrá más confianza en la IA cuando las personas vean que se está construyendo sobre una base de ética, y que las compañías detrás de la IA están abordando directamente cuestiones de confianza y responsabilidad.

6 principios de la inteligencia artificial ética

El Rome Call for AI Ethics es un compromiso para trabajar juntos en promover el avance ético de la IA, se definen por 6 principios, que están reflejados en los Principios por la Confianza y la Transparencia de IBM, estos son:

1. Transparencia: en principio, los sistemas de Inteligencia Artificial deben ser explicables.

2. Inclusión: se deben tener en cuenta las necesidades de todos los seres humanos, para que todos puedan beneficiarse y se les ofrezca a todos los individuos las mejores condiciones posibles para expresarse y desarrollarse, fomentando la participación social e incluyendo a los más vulnerables.

3. Responsabilidad: quienes diseñan y despliegan el uso de IA deben proceder con responsabilidad y transparencia, teniendo en el centro el bien de la humanidad y con un enfoque sostenible.

4. Imparcialidad: no crear ni actuar de acuerdo con prejuicios o discriminación, salvaguardando así la equidad y la dignidad de cada ser humano.

5. Confiabilidad: los sistemas de IA deben poder funcionar de manera confiable.

6. Seguridad y privacidad: los sistemas de inteligencia artificial deben funcionar de forma segura y respetar la privacidad de los usuarios.

Fuente: IBM




Relacionado

Te podría interesar