La inteligencia artificial está en boca de todos, no solo en el sector tecnológico. El verdadero diluvio de noticias sobre inteligencia artificial que nos venden de todo, desde una tecnología que puede descubrir si un cuadro es auténtico a partir de una pincelada hasta camiones sin conductor para el ejército de Estados Unidos, se ha convertido en un «bombardeo mediático». Sin embargo, en medio de este frenesí, no nos estamos fijando en cómo la inteligencia artificial puede emplearse con malas intenciones, en especial en lo que se refiere a la seguridad de los datos. ¿Cómo puede el gobierno corporativo enfrentarse al futuro y limitar los daños de las tecnologías que explotan la inteligencia artificial?
¿Cómo afectará la inteligencia artificial a la seguridad de los datos digitales ?
A principios de 2018 se reunieron 26 expertos en seguridad de la Universidad de Oxford, la Universidad de Cambridge y el Centre for a New American Security (entre otros muchos) con vistas a determinar el presente y el potencial dañino de la inteligencia artificial. El resultado de su informe de 100 páginas, titulado « The Malicious Use of Artificial Intelligence: Forecasting, Prevention and Mitigation », presenta un alarmante panorama de la tarea que espera a los profesionales de la ciberseguridad y el gobierno corporativo. Hasta ahora, el principal objeto de la inteligencia artificial era positivo para la gran mayoría, y tanto los estados como las empresas se preparaban para gastar miles de millones en la carrera por lograr dominarla (en la actualidad, China combate por la supremacía). Sin embargo, a partir de este informe, los investigadores no solo están sacando a la luz los posibles usos malintencionados de la inteligencia artificial, sino que también plantean preguntas incómodas sobre la gobernanza. Los análisis explican seriamente que «la inteligencia artificial romperá el equilibrio entre escala y eficacia y permitirá ataques a gran escala, con objetivos muy bien definidos y extremadamente eficaces».
La pionera investigación también prevé cómo la inteligencia artificial en el futuro utilizará métodos nuevos e innovadores para transformar los ciberataques y mutilar la seguridad de los datos, como « la piratería automatizada, la síntesis de voz utilizada para suplantar a las víctimas, el correo basura con objetivos bien definidos utilizando información recopilada en las redes sociales o aprovechando los puntos débiles de los propios sistemas de inteligencia artificial (por ejemplo, mediante ejemplos contradictorios o datos manipulados) ».
Nos esperan varios desafíos
La inteligencia artificial supondrá más dificultades para la seguridad de los datos, y eso es un hecho. En su informe «AI Now» de 2017, el AI Now Institute de la Universidad de Nueva York, instituto de investigación que estudia las implicaciones sociales de la inteligencia artificial explicó la forma en que los gobiernos corporativos pueden abordar mejor esta y otras cuestiones.
Estas son las principales enseñanzas que pueden extraerse:
1: Aumentar el número de personas implicadas activamente en la inteligencia artificial
El gobierno corporativo debería designar especialmente a varios empleados para trabajar en la prevención y mitigación de los riesgos de la inteligencia artificial.
2: Los despachos de abogados deberían dejar de utilizar sistemas de inteligencia artificial y algoritmos « de caja negra »
El AI Now Institute ha señalado que el uso de dichos sistemas « plantea serios problemas en materia de garantías procesales », por lo que los servicios jurídicos deberían ser objeto de auditorías públicas, pruebas, revisiones y normas en materia de responsabilidad.
3: Los programas de inteligencia artificial deberían revisarse y probarse rigurosamente antes de su uso
Esto puede parecer de sentido común, pero el AI Now aconseja el desarrollo de normas que desde un primer momento permitan entender y controlar mejor todas las cuestiones que se plantean cuando se integra un nuevo programa.
4: Atención a la combinación Recursos Humanos e inteligencia artificial
Es necesario llevar a cabo más investigaciones y elaborar nuevas políticas sobre el uso de los sistemas de IA en las direcciones de Recursos Humanos, en especial en los procesos de contratación. Los investigadores han advertido del posible impacto en los derechos y las prácticas laborales, como los sesgos en la selección.
5: Seleccione minuciosamente sus soluciones informáticas
Para los gobiernos corporativos, una de las mejores formas de hacer frente a los futuros ciberataques de la inteligencia artificial consiste en confiar en productos informáticos que vayan un paso por delante. DiliTrust propone a sus clientes seis soluciones diseñadas para ofrecer, además de un producto de calidad, una solución extremadamente segura. Nuestras soluciones se someten sistemáticamente a tres tipos de rigurosas pruebas de seguridad y a actualizaciones constantes. Por eso, nuestros clientes saben que siempre daremos prioridad a la seguridad de sus datos.
Póngase en contacto con nuestro equipo desde hoy para obtener más información.