La ética de la IA: 4 preguntas esenciales que debemos hacernos
Publicado: 2023-07-31Hace un año, si hubiera dicho " IA" en mi mesa, mi familia (madura) no habría sabido de lo que estaba hablando. Excepto los niños, por supuesto. Los niños ya lo saben todo.
El acceso generalizado reciente a las herramientas de inteligencia artificial generativa orientada al consumidor ha provocado conversaciones globales desde la adquisición de robots hasta la emoción de que las tareas que ahorran tiempo se eliminen de nuestros platos completos en el trabajo.
Los expertos en la materia de todo el mundo se han duplicado en la creación de recursos de aprendizaje automático para las masas, mientras que los formuladores de políticas consideran medidas regulatorias para proporcionar barandillas, ya que los malos actores tienen un día de campo poniendo a prueba nuestros sistemas actuales.
Al mismo tiempo, hemos desarrollado políticas tecnológicas que luchan por mantenerse al día con la velocidad de la innovación, poblaciones que no pueden distinguir efectivamente los hechos de la ficción en línea y la privacidad es ignorada descaradamente por algunas de las mismas instituciones que promocionan su necesidad.
"En resumen, la inteligencia artificial ahora es un jugador en la configuración del conocimiento, la comunicación y el poder".
kate crawford
Atlas de IA
Respondiendo cuatro preguntas principales sobre la inteligencia artificial
¿Cómo podemos obtener información sobre en qué dirección fomentamos el impacto de la IA? ¿Cómo podríamos mitigar de manera proactiva el daño causado por la IA? Como individuos, corporaciones y legisladores, ¿cómo podemos minimizar el riesgo de abrir una lata de gusanos de aprendizaje automático ?
Comienza con la ética, con cada uno de nosotros, como individuos, tomando decisiones éticas.
Somos innovadores. somos trabajadores Somos familias. Somos comunidades. Somos negocios. Somos naciones. Somos una humanidad global. Estamos construyendo, alimentando y enseñando las máquinas y, por lo tanto, tenemos 100% de entrada en su salida.
La IA afectará a cada uno de nosotros en este planeta y cada uno de nosotros tiene un interés y una voz sobre cómo se permite y cómo no se permite en nuestras vidas.
Aprendemos de nuestros errores en la vida y los negocios, y la IA no es diferente. El aprendizaje es la base misma de la naturaleza de la IA. Después de todo, se llama aprendizaje automático . Cómo lo construimos determina lo que produce . Entonces, ¿dónde se aplica la ética aquí?
Los principios éticos deben implementarse en las cuatro etapas principales de todo el ciclo de vida de la IA:
- Cómo lo construimos
- Lo que ponemos en él
- Qué hacemos con la salida
- Cómo mitigamos las consecuencias no deseadas e inevitables
Omitir ese paso final en el ciclo de vida es, lo adivinó, poco ético .
Estas etapas pueden parecer hitos perfectamente razonables con los que asignar reglas y pautas. Vivimos con algoritmos de aprendizaje automático desde la década de 1950 . Llevamos varios años redactando datos globales y estándares éticos de IA. Y, sin embargo, estamos lejos del acuerdo y aún más lejos de la adopción.
Si observamos algunos obstáculos legales actuales para las grandes tecnologías, está claro que los responsables de tomar decisiones en cada etapa del ciclo de vida de la IA no están tomando en cuenta seriamente las consideraciones éticas.
Cuestiones éticas en torno a la IA
Entonces, ¿cómo insistimos en las prácticas éticas de los involucrados en cada etapa del ciclo de vida de la IA?
Hacemos preguntas, hacemos más preguntas, luego volvemos a hacer las mismas preguntas y nunca dejamos de hacer las preguntas.
- ¿Quiénes son los que toman las decisiones en cada etapa? Necesitamos respuestas a esto para mitigar el sesgo, garantizar las mejores prácticas e incluir la diversidad de pensamiento.
- ¿Para quién se toman y optimizan las decisiones? Una vez más, esto reduce el sesgo, pero lo que es más importante, asegura que se evalúe el impacto en todas las partes antes de seguir adelante.
- ¿Qué capital se requiere para impulsar la IA a escala? Esto es necesario para hacer análisis lógicos de costo-beneficio a largo plazo.
- ¿Cuáles son los impactos sociales, políticos y económicos? La comprensión de causa y efecto es necesaria para corregir continuamente las pautas a lo largo del tiempo. (Me gusta pensar que este paso está alineado con el desarrollo ágil de productos: lanzar, aprender, repetir).
Cómo la IA afecta el trabajo y la economía
Tres estudios de casos recientes de Stanford, MIT y Microsoft Research encontraron resultados similares en el crecimiento de la productividad de los empleados a partir de herramientas de IA generativa en comparación con sus contrapartes que no usaron herramientas para realizar sus tareas.
En diversas disciplinas (soporte al cliente, ingeniería de software y creación de documentos comerciales), vemos en datos empíricos que los usuarios comerciales aumentaron su rendimiento en un promedio del 66 %. En el mejor de los escenarios, eso ahorra tiempo en tareas cognitivamente exigentes, creando las condiciones para toques humanos más personalizados, imaginación y entregas pulidas.
Con una mayor productividad a escala, existe el temor de que algunos trabajos eventualmente se vuelvan obsoletos. Históricamente, una industria tiene un ciclo de vida natural cuando las nuevas innovaciones llegan a los mercados laborales. Por ejemplo, ¿alguna vez se preguntó qué pasó con los operadores telefónicos ?
Nadie tiene un interruptor mágico que permita a los trabajadores poco calificados o poco calificados ingresar a industrias que requieren habilidades más avanzadas de inmediato. Existe una brecha de habilidades que históricamente depende y agota las redes de seguridad social. Estas brechas de habilidades toman tiempo para identificar, financiar y llenar. Incluso si bien algunos países apoyan de manera proactiva la mejora de las habilidades de sus trabajadores, los datos muestran que los segmentos más vulnerables de nuestra población mundial tienden a verse afectados de manera desproporcionada durante este apogeo innovador.
Si bien las previsiones económicas indican fuertemente impactos positivos en el mercado laboral por los usos generativos de IA en los negocios, ¿sabemos completamente qué está en riesgo con este auge económico?
Creativos como artistas, músicos, cineastas y escritores se encuentran entre las industrias con varias demandas colectivas contra OpenAI y la empresa matriz de Facebook, Meta. Las grandes empresas de tecnología que se benefician de la IA refutan las afirmaciones de que el trabajo protegido por derechos de autor de los artistas se ha utilizado ilegalmente para entrenar modelos de IA. Los artistas están eliminando cuentas en línea en masa y compañías creativas de alto perfil como Getty Images están presentando demandas . En respuesta, la FTC investigó recientemente las prácticas de extracción de datos en línea de OpenAI.
Este es un ejemplo perfecto de las cuatro etapas del ciclo de vida de la IA. Hagamos nuestras preguntas éticas:
- ¿Quién tomó estas decisiones? No los creativos.
- ¿Para quién se optimizaron las decisiones? No los creativos.
- ¿Cuál fue el costo de capital? ¿Capital humano? ¿Capital financiero? ¿Capital natural? Quizás fue en los tres a expensas de los creativos.
- ¿Se consideraron los impactos sociales, políticos y económicos? Quizás, pero ¿por quién? No los creativos.
¿Estamos dispuestos a arriesgarnos a que una generación de creativos y sus industrias adyacentes impidan que el trabajo se publique en línea? ¿Cómo afectará eso nuestra evolución cultural creativa, los medios de subsistencia de los creadores y el impacto social y político a largo plazo que tendría? ¿Alguien pensó en este impacto potencial, determinó si los riesgos legales y de reputación estaban justificados y decidió seguir adelante?
Tal vez. O simplemente no lo pensaron en absoluto. En ambos casos, la decisión no fue ética, independientemente de su interpretación de las implicaciones legales.
Como economía global, es fundamental identificar organizaciones que operan dentro de prácticas éticas para priorizar su apoyo por encima de aquellas que infringen los estándares éticos. Al no sacar a la superficie la postura ética de los que toman las decisiones, corremos el riesgo de mirar hacia otro lado sin darnos cuenta precisamente en el momento en que necesitamos un escrutinio generalizado.
Pregunta para llevar: ¿Cómo podríamos evaluar, medir o identificar la postura ética de una empresa?
Háganos saber aquí.
Cómo la IA tiene un impacto ambiental
La IA es una infraestructura que consume mucha energía. El impacto ambiental está en gran medida fuera de la vista y de la mente, y a menudo es una ocurrencia tardía en un espacio como el sector tecnológico.
MIT Technology Review informó que entrenar un solo modelo de IA puede emitir tanto carbono como cinco autos, el equivalente a más de 626,000 libras de dióxido de carbono. Los minerales terrestres también juegan un papel importante en lo que alimenta la energía para el procesamiento computacional masivo de la IA generativa. La extracción de los metales necesarios involucrados en la infraestructura física de la computación a menudo se produce a expensas de la violencia local y geopolítica .
"Sin los minerales de estos lugares, la computación contemporánea simplemente no funciona".
kate crawford
Atlas de IA
Recuerde nuestra tercera pregunta ética: ¿Qué capital se requiere para impulsar la IA a escala? Para hacer un análisis lógico de costos de beneficios a largo plazo. El capital natural en forma de impacto en nuestro planeta no debe quedar fuera de la ecuación si somos lo suficientemente valientes como para hacer las preguntas correctas.
Hacer las preguntas correctas puede dar miedo, especialmente si las preguntas implican su propio sustento como fuente de controversia. Pero en aras de que el conocimiento sea poder , los tecnólogos deben adoptar la transparencia para participar en última instancia en cualquier solución tecnológica ética.
¡No es sabotaje corporativo! Un grupo de profesionales del aprendizaje automático “que también son conscientes del estado general del medio ambiente” se comprometieron a crear herramientas de apoyo para evaluar las emisiones de carbono generadas por su trabajo. Después de la evaluación, pueden calcular formas de reducir esas emisiones. Incluso crearon esta Calculadora de emisiones para que otros profesionales de la IA puedan calcular estimaciones.
Pregunta para llevar: ¿Cómo podríamos alentar a los tecnólogos y proveedores a ser valientes en su transparencia de IA?
Háganos saber aquí.
Cómo los marcos que generan ROI afectan la ética de la IA
La regulación por sí sola no puede resolver nuestros problemas de IA. Los tecnólogos a menudo están motivados por métricas que, para ellos, pueden parecer éticamente agnósticas porque no están reguladas, pero generan un retorno de su inversión. ¿Cuáles son estos marcos de rendimiento de ROI? ¿Dónde vemos estos conjuntos de reglas en la naturaleza que devuelven algún tipo de recompensa a la empresa que sigue las reglas?
Consideremos el algoritmo Google PageRank como un ejemplo de un impacto no regulatorio en la ética de la tecnología. El algoritmo Google PageRank analiza una "variedad de señales que se alinean con la experiencia general de la página". Esto incluye elementos que se alinean con las mejores prácticas de UX, siguiendo las pautas y políticas de privacidad de ADA.
Ningún patrón de la web oscura significará una clasificación favorable. No cumplir con ADA significará clasificaciones menos favorables. Al mejorar la presencia de un sitio y seguir las pautas de Google, vemos que se toman decisiones éticas sin darse cuenta, basadas en el cumplimiento de un conjunto de reglas no reglamentarias.
¿Por qué el sitio de su empresa debe seguir las mejores prácticas sugeridas del algoritmo de esta otra empresa? Porque hacerlo asegura sus mejores posibilidades de clasificarse bien en Google. El impacto en la visibilidad de una empresa y la importancia percibida en línea, lo que afecta su resultado final, es un motivador y, por lo tanto, influye en las prácticas éticas sin cumplimiento normativo.
Pregunta para llevar: ¿Cómo podemos responsabilizar a nuestros tecnólogos por sus prácticas éticas fuera del espacio regulatorio tradicional? ¿En qué encuentran valor? ¿De dónde obtienen el combustible para su éxito?
Háganos saber aquí.
comienza con nosotros
No importa quién sea, todos desempeñan un papel en la minimización de los riesgos que van de la mano con el uso poco ético de la inteligencia artificial y las herramientas de aprendizaje automático. Como individuos, es crucial que tomemos decisiones éticas sobre el uso de la IA y cómo, y qué, enseñamos a estas máquinas sobre la sociedad.
La historia de la IA apenas comienza y cómo transformará por completo el futuro es una historia que aún no está escrita. Afortunadamente, tenemos algo que decir sobre cómo evoluciona la IA tanto en nuestra vida personal como profesional. Todo se reduce a asegurarse de que la ética sea lo más importante.
¡G2 quiere saber de ti!
Aquellos interesados en la ética de la IA, compartan sus pensamientos sobre lo que falta en esta conversación que es más importante para usted, su industria, empresa o sustento. Planeo continuar desarrollando esta conversación y compartiendo artículos posteriores basados en las ideas y el aprendizaje de usted y el resto de la comunidad de G2.
¿Quieres más liderazgo intelectual? Este artículo es parte de la serie G2 Voices que presenta una variedad de líderes influyentes de G2.