El consejero delegado (CEO) de Google, Sundar Pichai, reconoció este lunes que "la inteligencia artificial (IA) debe ser regulada", un trabajo que, en su opinión, "va más allá de los esfuerzos individuales de las compañías" que se dedican a su desarrollo y en el que "los gobiernos tienen un papel fundamental".
Por este motivo, el dirigente de Google se reunirá esta tarde en Bruselas con la comisaria para una Europa adaptada a la era digital, Margrethe Vestager, a quien trasladará la importancia de una regulación para la IA "basada en la normativa existente" y emplazada en un "marco internacional", además de la conveniencia de que "el sector privado y los gobiernos vayan de la mano en este tema".
Pichai confesó en una conferencia pronunciada hoy en Bruselas que la IA es "una de las tecnologías más emocionantes" en las que ha trabajado porque, a su juicio, las herramientas que se deriven de ella "pueden aumentar el conocimiento, el éxito, la salud y la felicidad de las personas".
No obstante, avisó de que "la historia está llena de ejemplos de cómo las virtudes de la tecnología no están garantizadas".
"La invención del motor de combustión interna hizo posible que la gente pudiera viajar, pero también aumentó los accidentes; e Internet hizo posible la conexión entre personas y el acceso a la información, pero propagó la desinformación", explicó Pichai, para quien estas lecciones "nos enseñan la importancia de tener la vista clara sobre todo lo que puede salir mal" en el desarrollo de la IA.
Algunos de los avances que la inteligencia artificial puede ayudar a alcanzar, según Pichai, son la detección precoz de cánceres como el de mama, la realización de pronósticos meteorológicos inmediatos y más precisos, y la disminución de los accidentes de tráfico, además de la generación de grandes oportunidades económicas.
"Si bien la IA promete enormes beneficios para Europa y el mundo, existen preocupaciones sobre sus posibles consecuencias negativas", aseveró Pichai, quien señaló como su principal área de preocupación las llamadas "falsificaciones profundas", clips de vídeo y audio que han sido manipulados utilizando profundos modelos generativos de IA.
Pichai subrayó que las compañías como Google "no pueden construir una nueva tecnología prometedora sin asumir la responsabilidad de cómo se usa".
"Para Google es importante que el poder de la IA sea aprovechado para bien y esté disponible para todos", manifestó.
En esta línea, Google publicó en 2018 sus propias pautas respecto a la IA, que pretenden "ayudar a guiar la ética de su desarrollo y uso".
Esta guía establece procedimientos para realizar pruebas de seguridad y diseñar con la privacidad como principal preocupación, y señaló que Google no diseñará ni implementará la IA en áreas como los soportes de vigilancia masiva.
Durante su discurso, Pichai ofreció la "experiencia, herramientas y habilidades" de Google a las instituciones que, como la Comisión Europea (CE), tienen debates abiertos sobre la regulación de la IA, y les recordó que, en esta materia, "tenemos una tremenda oportunidad ante nosotros".
Todas las claves de la actualidad y últimas horas, en el canal de WhatsApp de El Independiente. Únete a nuestro canal de Whatsapp en este enlace.
Te puede interesar
Lo más visto
- 1 ¿Hasta dónde puede bajar el precio del aceite de oliva?
- 2 Un exjuez del Tribunal Europeo: "La Comisión Europea podría pedir que se suspendiera la ley de amnistía totalmente"
- 3 Cuándo empiezan las rebajas de verano 2024 de Stradivarius
- 4 Alvise y el nexo de Se Acabó la Fiesta con el sector inmobiliario
- 5 Dónde hay mercadillo los domingos y los más emblemáticos de España
- 6 La lucha de Jacobo para ser siendo guardia civil en silla de ruedas
- 7 Un exjuez del Tribunal Europeo: "La Comisión Europea podría pedir que se suspendiera la ley de amnistía totalmente"
- 8 "Saco de mierda": el insulto de Óscar Puente en redes
- 9 "Si la AMOC colapsa provocará algo más serio que una Pequeña Edad de Hielo"