Aunque la tecnología de IA capaz de hacerse cargo del mundo se limita a la literatura y las películas de ciencia ficción, la inteligencia synthetic existente es capaz de irregularidades, como producir alucinaciones, capacitar en los datos de las personas y usar el trabajo de otras personas para crear nuevos resultados. ¿Cómo se alinean estas deficiencias con la rápida adopción de IA?
Esa pregunta se exploró en gran medida en SXSW, con la mayoría de las sesiones relacionadas con la IA, ya sea sobre el tema de la seguridad de IA. Los líderes de la compañía de IBM, Meta, Microsoft y Adobe, por nombrar algunos, tenían concepts para compartir sobre el futuro de la IA. El consenso? No todo es pesimismo.
Además: Microsoft es un escéptico AGI, pero ¿hay tensión con OpenAi?
“La IA necesita un mejor agente de relaciones públicas; todo lo que hemos aprendido es de la ciencia ficción”, dijo Hannah Elsakr, fundadora de Firefly para Enterprise at Adobe. “Creemos que la IA se apoderará de nuestras vidas; ese no es el propósito de eso”.
Independientemente del panel, los líderes de algunas de las compañías de tecnología de IA más grandes discutieron tres temas generales sobre cómo encajan la seguridad y la responsabilidad en el futuro de la tecnología. Lo que tuvieron que decir puede ayudar a tranquilizar sus preocupaciones.
1. El caso de uso es importante
No se puede negar que los sistemas de IA son defectuosos. A menudo alucinan e incorporan sesgos en sus respuestas. Como resultado, a muchos les preocupa que la incorporación de sistemas de IA en el lugar de trabajo introduzca errores en los procesos internos, impactando negativamente a los empleados, clientes y objetivos comerciales.
La clave para mitigar este problema es considerar cuidadosamente qué tarea delega a la IA. Por ejemplo, Sarah Chicken, CPO de IA responsable en Microsoft, busca casos de uso que sean una buena coincidencia para lo que la tecnología puede hacer hoy.
“Desea asegurarse de tener la herramienta adecuada para el trabajo, por lo que no necesariamente debe usar IA para cada aplicación”, dijo Chicken. “Hay otros casos en los que tal vez nunca deberíamos usar AI”.
Un ejemplo de un caso de uso de IA que podría ser problemático es usarlo para las prácticas de contratación. Muchos estudios han demostrado que la IA tiene prejuicios inherentes que hacen que favorezcan ciertas nacionalidades, antecedentes educativos y géneros en sus resultados. Como resultado, IBM dejó de usar agentes de IA para filtrar y seleccionar procesos y, en su lugar, usó un agente para ayudar a igualar a los candidatos con posibles roles de trabajo.
“No puedo enfatizar lo suficiente la importancia de realmente asegurarme de que sea cual sea su caso de uso para la IA y los agentes que sean aptos para su empresa y su cultura”, dijo Nickle Lamoreaux, director de recursos humanos de IBM.
También: 5 formas rápidas de ajustar su uso de IA para obtener mejores resultados, y una experiencia más segura
Aunque la IA puede hacer muchas tareas, eso no significa que debería. Comprender las limitaciones y las fortalezas de la tecnología es clave para garantizar que los usuarios obtengan el mejor resultado posible al implementar la IA y evitar las dificultades.
2. Los humanos están aquí para quedarse
A medida que los sistemas de IA se vuelven más inteligentes y autónomos, las personas están naturalmente alarmadas por el potencial de la tecnología para afectar negativamente la fuerza laboral al hacer que los humanos sean más reemplazables. Sin embargo, todos los líderes empresariales acordaron que a pesar de que la IA transformará el trabajo como lo conocemos, no necesariamente lo reemplazará.
“La IA está permitiendo a las personas hacer más de lo que lo hicieron antes, no necesariamente un reemplazo mayorista”, dijo Ella Irwin, jefa de seguridad generativa de IA en Meta. “¿Se reemplazarán algunos trabajos? Sí, pero como con cualquier otra tecnología, como Web, veremos desarrollarse nuevos trabajos, y veremos personas que usan esta tecnología y hacen su trabajo de manera diferente a”.
También: a medida que los agentes de IA se multiplican, se convierte en el nuevo departamento de recursos humanos
Los líderes y expertos durante toda la conferencia discutieron con frecuencia los paralelos entre la IA y otras tecnologías de transformación, como Web, porque comparten muchas similitudes. Por ejemplo, al igual que Web reemplazó las horas en la biblioteca, las nuevas AI de investigación profunda de Google o OpenAI ahora pueden completar horas de investigación en minutos.
“Piénselo como un correo electrónico, o teléfonos móviles, o Web: la IA es una herramienta, la IA es una plataforma, cada trabajo ha sido transformado por eso”, dijo Lamoreaux.
3. Person Belief será uno de los mayores desafíos
Al discutir los obstáculos para los desarrollos de IA, los obstáculos que las personas consideran típicamente involucran el desarrollo técnico de los modelos de IA, es decir, cómo los modelos se pueden construir más seguros, más rápido y más barato. Sin embargo, una parte de la discusión que a menudo queda fuera es el sentimiento del consumidor.
En SXSW, el papel del consumidor se discutió en gran medida porque, en última instancia, estos modelos solo serán útiles y transformadores si las personas confían en ellos lo suficiente como para considerarlos probarlos.
“La IA es tan confiable como la gente, la confianza en él; si no confía en ella, es inútil; si confía en él, puede comenzar la adopción”, dijo Lavanya Poreddy, directora de confianza y seguridad en Heygen.
También: ¿Puede la IA sobrealimentar la creatividad sin robar a los artistas?
Como se discutió anteriormente, las tecnologías transformadoras, como Web, la nube o incluso la calculadora, se encontraron con dudas. Irvwin usó el ejemplo de la tarjeta de débito para ilustrar esta thought, como cuando se lanzó inicialmente, las personas estaban preocupadas por lo que significaba para la seguridad de sus fondos.
“Con cada nueva tecnología, allí esta reacción inicial por parte de los responsables políticos, por el mercado, de los consumidores, que está un poco más basado en el miedo”, agregó Irwin de Meta.
Para superar este obstáculo, las empresas deben permanecer transparentes sobre sus modelos, cómo fueron capacitadas, políticas de equipo rojo, enfoques de seguridad y más. Ya ha habido un impulso en esa dirección, con más compañías que agregan tarjetas modelo a sus lanzamientos.