Cuando escucha la frase «inteligencia artificial», puede ser tentador imaginar los tipos de máquinas inteligentes que son un pilar de la ciencia ficción o extensiones de los tipos de tecnofobia apocalíptica que han fascinado a la humanidad desde el Dr. Frankenstein.
Pero los tipos de IA que se están integrando rápidamente en las empresas de todo el mundo no son de esta variedad: son tecnologías muy reales que tienen un impacto real en personas reales.
Si bien la IA ya ha estado presente en los entornos comerciales durante años, el avance de los productos de IA generativa como ChatGPT, ChatSonic, Jasper AI y otros aumentará drásticamente la facilidad de uso para la persona promedio. Como resultado, el público estadounidense está profundamente preocupado por el potencial de abuso de estas tecnologías. Un reciente Encuesta ADL encontrada que el 84% de los estadounidenses temen que la IA generativa aumente la difusión de información errónea y odio.
Los líderes que estén considerando adoptar esta tecnología deben hacerse algunas preguntas difíciles sobre cómo podría dar forma al futuro, tanto para bien como para mal, a medida que ingresamos en esta nueva frontera. Aquí hay tres cosas que espero que todos los líderes consideren al integrar herramientas de IA generativa en organizaciones y lugares de trabajo.
Haga de la confianza y la seguridad una prioridad máxima
Si bien las redes sociales se utilizan para luchar contra la moderación de contenido, la IA generativa se está introduciendo en los lugares de trabajo que no tienen experiencia previa en el manejo de estos problemas, como la atención médica y las finanzas. Es posible que muchas industrias pronto se enfrenten repentinamente a nuevos y difíciles desafíos a medida que adoptan estas tecnologías. Si es una empresa de atención médica cuyo bot conversacional impulsado por IA de primera línea es repentinamente grosero o incluso odioso con un paciente, ¿cómo va a manejar eso?
A pesar de todo su poder y potencial, la IA generativa hace que sea fácil, rápido y accesible para los malos actores producir contenido dañino.
A lo largo de las décadas, las plataformas de redes sociales han desarrollado una nueva disciplina, la confianza y la seguridad, en un intento por domar los problemas espinosos asociados con el contenido generado por los usuarios. Este no es el caso con otras industrias.
Por esta razón, las empresas deberán contratar expertos en confianza y seguridad para hablar sobre su implementación. Tendrán que adquirir experiencia y pensar en formas de abusar de estas herramientas. Y tendrán que invertir en personal de lucha contra el abuso para que no los tomen por sorpresa cuando los malos abusan de estas herramientas.
Establezca barandillas altas y enfatice la transparencia.
Especialmente en entornos laborales o educativos, es fundamental que las plataformas de IA cuenten con las garantías adecuadas para evitar la generación de contenido de odio o acoso.
Aunque son herramientas increíblemente útiles, las plataformas de IA no son 100% infalibles. En minutos, por ejemplo, los evaluadores de ADL utilizaron recientemente la aplicación Expedia, con su nueva función ChatGPT, para crear un itinerario de famosos pogromos antijudíos en Europa y una lista de tiendas de artículos de arte cercanas donde se podía comprar pintura en aerosol, aparentemente de participar en vandalismo contra estos sitios.
Si bien hemos visto que algunas IA generativas mejoran su manejo de preguntas que pueden conducir a respuestas antisemitas y otras de odio, hemos visto otras fallar al asegurar que no contribuirán a la difusión de odio, acoso, teorías conspirativas y otro tipo de contenidos nocivos.
Antes de adoptar la IA a gran escala, los líderes deben hacerse algunas preguntas clave, como: ¿qué tipo de pruebas se realizan para garantizar que estos productos no estén abiertos al abuso? ¿Qué conjuntos de datos se utilizan para construir estos modelos? ¿Y se incorporan las experiencias de las comunidades más atacadas por el odio en línea en la creación de estas herramientas?
Sin la transparencia de la plataforma, simplemente no hay garantía de que estos modelos de IA no permitan que se propague el sesgo o la intolerancia.
Protección contra la militarización
Incluso con sólidas prácticas de confianza y seguridad, los usuarios comunes pueden hacer un mal uso de la IA. Como líderes, debemos alentar a los diseñadores de sistemas de IA a que incorporen medidas de seguridad contra el uso de armas por parte de humanos.
Desafortunadamente, a pesar de todo su poder y potencial, las herramientas de IA hacen que sea fácil, rápido y accesible para los malos actores producir contenido para cualquiera de estos escenarios. Pueden producir noticias falsas convincentes, crear falsificaciones profundas visualmente convincentes y difundir el odio y el acoso en segundos. El contenido generativo generado por IA también podría contribuir a la difusión de ideologías extremistas, o utilizarse para radicalizar a las personas susceptibles.
En respuesta a estas amenazas, las plataformas de IA deben incorporar sistemas de moderación robustos que puedan resistir la avalancha potencial de contenido dañino que los autores de contenido dañino podrían generar utilizando estas herramientas.
La IA generativa tiene un potencial casi ilimitado para mejorar vidas y revolucionar la forma en que procesamos la cantidad infinita de información disponible en línea. Estoy entusiasmado con las perspectivas futuras de la IA, pero solo con un liderazgo responsable.
