Biden admite que la inteligencia artificial podría ser peligrosa
El mandatario Americano insistió que las empresas de tecnología tienen la repsonlidad de cerciorarse que sus productos sean seguros y confiables antes de hacerlos públicos
El pasado martes 4 de abril, el presidente de los Estados Unidos, Joe Biden, compartió su opinión sobre los desafíos y oportunidades que el progreso de la inteligencia artificial presenta para la seguridad nacional y los usuarios, durante una reunión del Consejo de Asesores sobre Ciencia y Tecnología del Presidente (PCAST).
Biden ha reconocido que la inteligencia artificial (IA) puede ser útil para enfrentar desafíos importantes como el cambio climático y la lucha contra enfermedades. Sin embargo, también ha expresado su preocupación acerca de los posibles riesgos que la IA podría tener para la sociedad, la economía y la seguridad nacional. Es decir, aunque ve el potencial de la IA para hacer el bien, también es consciente de que su uso debe ser cuidadosamente gestionado y controlado para evitar consecuencias negativas en distintas áreas.
“Las empresas de tecnología tienen la responsabilidad, en mi opinión, de cerciorarse de que sus productos sean seguros antes de hacerlos públicos”, ha aseverado el mandatario estadounidense. Cuando se le preguntó si la IA era peligrosa, dijo: “Queda por ver. Podría serlo”.
En este contexto, el presidente Biden ha expresado su preocupación de que las tecnologías poderosas pueden causar daño si no se aplican medidas adecuadas, y ha señalado el caso de las redes sociales como ejemplo. Con el objetivo de limitar la recolección de datos personales por parte de las empresas de tecnología, el presidente ha reiterado su llamado para que el Congreso de EE.UU. apruebe una ley de privacidad bipartidista. Esta legislación incluiría restricciones a la publicidad dirigida a los niños y priorizaría la salud y la seguridad en la creación de nuevos productos.
Las afirmaciones de Biden se producen en un momento en que ha habido controversias recientes sobre el sistema de inteligencia artificial ChatGPT, creado por la empresa estadounidense OpenAI. Estos problemas han llevado a la comunidad internacional a estar más alerta en cuanto al desarrollo de la IA, considerando las posibles amenazas que podrían surgir debido a la falta de supervisión humana en estas tecnologías.
En este sentido, una carta abierta firmada por Elon Musk (director de SpaceX, Tesla y Twitter) y Steve Wozniak, cofundador de Apple, entre otras personalidades, hizo “un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4″.