¿Por qué hay que regular la Inteligencia Artificial?

Es muy probable que se tengan conceptos variados basados en los enormes avances que la Inteligencia Artificial ha venido teniendo. Hoy, bancos, comercios, empresas de telecomunicaciones y hasta la industria del entretenimiento ya tienen casos de uso. Y este crecimiento, por supuesto, también ha traído la discusión sobre si esta tecnología debe ser, o ya es, una «caja negra«.

Hay que partir del hecho de que la Inteligencia Artificial no es una tecnología nueva. Se viene desarrollando por más de siete décadas y la necesidad de modelos responsables se viene trabajando hace años. Muchos hablan de que la IA podría verse como una caja negra, al no tener visibilidad sobre las conclusiones o datos que procesa esta tecnología. Sin embargo, la Inteligencia Artificial debe (y puede) ser una caja de cristal, completamente transparente, en la medida en que, tanto el proveedor de la tecnología como quien la usa, ‘alimenten’ la IA con datos objetivos y verídicos, y que además haya visibilidad de cómo la herramienta llegó a esa conclusión, con modelos libres de sesgos, transparentes y equitativos. Y en esa línea justamente va el concepto de regulación.

En el mundo, publica Infobae, hoy varios países ya tienen una regulación o están en la discusión de establecer una regulación clara alrededor de la Inteligencia Artificial. La regulación busca definir las reglas de juego en el uso de la IA, es la forma de ‘marcar la cancha’ sabiendo que no se trata de un obstáculo para la innovación, sino una oportunidad de consenso sobre la transparencia, la ética y la explicabilidad que debe tener la IA. Y los primeros beneficiados somos todos, como sociedad, al tener un marco de protección de nuestros datos personales.

La Inteligencia Artificial utiliza grandes cantidades de información para aprender y mejorar su rendimiento. En el centro de la tecnología deben estar las personas. Se trata de avanzar con responsabilidad. ¿Cuál es el impacto sobre las personas? Esta pregunta debe guiarnos.

Para construir una Inteligencia Artificial confiable, por ejemplo, debemos definir los pilares éticos que rigen el desarrollo e implementación de la tecnología alrededor del mundo: explicabilidad, equidad, robustez, transparencia y privacidad. América Latina no es la excepción.

La regulación de la Inteligencia Artificial arraiga responsabilidad para múltiples partes interesadas. Para avanzar con este compromiso es necesaria una sinergia de esfuerzos entre los gobiernos, las organizaciones y las personas. Dentro de esta colaboración, las empresas juegan un papel clave al asumir el diseño de la IA de manera responsable en el micromundo de su propio negocio.

Un diseño que alcanza no sólo la tecnología, si no la manera en que se implementa, la educación sobre la misma y la gestión del talento involucrado.

Relacionada: Herramientas para crear empresas con ayuda de Inteligencia Artificial