أخلاقيات الذكاء الاصطناعي: 4 أسئلة أساسية يجب أن نطرحها

نشرت: 2023-07-31

قبل عام ، لو قلت " AI" على مائدة العشاء ، لما عرفت عائلتي (الناضجة) ما كنت أتحدث عنه ، باستثناء الأطفال بالطبع ، فالأطفال يعرفون كل شيء بالفعل.

أثار الوصول الواسع النطاق مؤخرًا إلى أدوات الذكاء الاصطناعي التوليدية الموجهة للمستهلكين محادثات عالمية من عمليات الاستحواذ على الروبوتات إلى إثارة المهام الموفرة للوقت التي يتم إزالتها من لوحاتنا الكاملة في العمل.

ضاعف الخبراء المتخصصون في جميع أنحاء العالم جهودهم في إنشاء موارد التعلم الآلي للجماهير ، بينما ينظر صانعو السياسات في الخطوات التنظيمية لتوفير حواجز الحماية لأن الجهات الفاعلة السيئة لديها يوم ميداني لاختبار الإجهاد لأنظمتنا الحالية.

في الوقت نفسه ، قمنا بتطوير سياسات تقنية تكافح لمواكبة سرعة الابتكار ، والسكان الذين لا يستطيعون تحديد الحقيقة بشكل فعال من الخيال عبر الإنترنت ، ويتم تجاهل الخصوصية بشكل صارخ من قبل بعض المؤسسات نفسها التي تروج لضرورتها.

"باختصار ، أصبح الذكاء الاصطناعي الآن لاعبًا في تشكيل المعرفة والتواصل والقوة."

كيت كروفورد
أطلس الذكاء الاصطناعي

الإجابة على أربعة أسئلة رئيسية تتعلق بالذكاء الاصطناعي

كيف يمكننا الحصول على مدخلات حول أي اتجاه نعزز تأثير الذكاء الاصطناعي؟ كيف يمكننا بشكل استباقي التخفيف من الضرر الناجم عن الذكاء الاصطناعي؟ كأفراد وشركات ومشرعين ، كيف يمكننا تقليل مخاطر فتح علبة من ديدان التعلم الآلي ؟

يبدأ بالأخلاق - مع اتخاذ كل واحد منا ، كأفراد ، قرارات أخلاقية.

نحن مبتكرون. نحن عمال. نحن عائلات. نحن مجتمعات. نحن شركات. نحن دول. نحن بشر عالمي. نحن نبني الآلات ونغذيها ونعلمها ، وبالتالي لدينا مدخلات بنسبة 100٪ على مخرجاتها.

سيؤثر الذكاء الاصطناعي على كل فرد منا على هذا الكوكب ، ولكل واحد منا مصلحة وصوت في كيفية السماح به - وغير المسموح به - في حياتنا.

نتعلم من أخطائنا في الحياة والعمل ولا يختلف الذكاء الاصطناعي. التعلم هو أساس طبيعة الذكاء الاصطناعي. إنه ، بعد كل شيء ، يسمى التعلم الآلي . كيف نبنيه يحدد ما يخرجه . إذن أين تنطبق الأخلاق هنا؟

يجب تنفيذ المبادئ الأخلاقية في أربع مراحل رئيسية من دورة حياة الذكاء الاصطناعي بأكملها:

  • كيف نبنيها
  • ما نضعه فيه
  • ماذا نفعل مع الإخراج
  • كيف نخفف من العواقب غير المقصودة والحتمية

إن حذف تلك الخطوة الأخيرة في دورة الحياة - كما خمنت - أمر غير أخلاقي .

قد تبدو هذه المراحل معالم معقولة تمامًا يمكن من خلالها تعيين القواعد والمبادئ التوجيهية. نحن نعيش جنبًا إلى جنب مع خوارزميات التعلم الآلي منذ الخمسينيات . لقد مرت عدة سنوات على صياغة البيانات العالمية والمعايير الأخلاقية للذكاء الاصطناعي. ومع ذلك ، ما زلنا بعيدين عن الاتفاق بل وأبعد عن التبني.

إذا نظرنا إلى بعض العقبات القانونية الحالية للتكنولوجيا الكبيرة ، فمن الواضح أن المسؤولين عن اتخاذ القرارات في كل مرحلة من مراحل دورة حياة الذكاء الاصطناعي لا يأخذون الاعتبارات الأخلاقية في الاعتبار بجدية.

الأسئلة الأخلاقية المحيطة بالذكاء الاصطناعي

إذن كيف نصر على الممارسات الأخلاقية من قبل المشاركين في كل مرحلة من مراحل دورة حياة الذكاء الاصطناعي؟

نحن نطرح الأسئلة ، ونطرح المزيد من الأسئلة ، ثم نطرح نفس هذه الأسئلة مرة أخرى ، ولا نتوقف عن طرح الأسئلة.

  1. من هم صناع القرار في كل مرحلة؟ نحن بحاجة إلى إجابات على هذا للتخفيف من التحيز ، وضمان أفضل الممارسات ، وتضمين تنوع الفكر.
  2. لمن يتم اتخاذ القرارات وتحسينها؟ مرة أخرى ، هذا يقلل من التحيز ، ولكن الأهم من ذلك ، أنه يضمن تقييم التأثير على جميع الأطراف قبل المضي قدمًا.
  3. ما هو رأس المال المطلوب لتغذية الذكاء الاصطناعي على نطاق واسع؟ هذا ضروري لإجراء تحليلات منطقية طويلة الأجل لتكلفة الفوائد.
  4. ما هي الآثار الاجتماعية والسياسية والاقتصادية؟ فهم السبب والنتيجة ضروري لتصحيح الإرشادات باستمرار بمرور الوقت. (أحب أن أفكر في هذه الخطوة على أنها تتماشى مع تطوير منتج رشيق: الإطلاق ، والتعلم ، والتكرار.)

كيف يؤثر الذكاء الاصطناعي على العمالة والاقتصاد

وجدت ثلاث دراسات حالة حديثة من ستانفورد ومعهد ماساتشوستس للتكنولوجيا و Microsoft Research نتائج مماثلة في نمو إنتاجية الموظفين من أدوات الذكاء الاصطناعي التوليدية مقارنة بنظرائهم الذين لم يستخدموا الأدوات لإنجاز مهامهم.

عبر مختلف التخصصات (دعم العملاء وهندسة البرمجيات وإنشاء مستندات الأعمال) ، نرى في البيانات التجريبية أن مستخدمي الأعمال زادوا من إنتاجيتهم بمعدل 66٪. في أفضل السيناريوهات ، يوفر ذلك الوقت في المهام التي تتطلب الكثير من المعرفة ، ويخلق الظروف لمزيد من اللمسات البشرية المخصصة والخيال والإنجازات المصقولة.

مع زيادة الإنتاجية على نطاق واسع ، هناك مخاوف من أن تصبح بعض الوظائف في نهاية المطاف قديمة. تاريخياً ، تتمتع الصناعة بدورة حياة طبيعية عندما تضرب الابتكارات الجديدة أسواق العمل. على سبيل المثال ، هل تساءلت يومًا ما الذي حدث لمشغلي الهاتف ؟

لا أحد لديه مفتاح سحري يسمح للعمال غير المهرة أو غير المؤهلين بدخول الصناعات التي تتطلب مهارات أكثر تقدمًا على الفور. توجد فجوة في المهارات تعتمد تاريخيًا على شبكات الأمان الاجتماعي وتستنفدها. تستغرق فجوات المهارات هذه وقتًا لتحديدها وتمويلها وسدها. على الرغم من أن بعض البلدان تدعم بشكل استباقي مهارات الارتقاء لموظفيها ، إلا أن البيانات تُظهر أن الشرائح الأكثر ضعفًا من سكان العالم تميل إلى التأثر بشكل غير متناسب خلال هذه الفترات المبتكرة.

بينما تشير التوقعات الاقتصادية بقوة إلى التأثيرات الإيجابية على سوق العمل من استخدامات الذكاء الاصطناعي التوليدية في الأعمال التجارية ، فهل نعرف تمامًا ما هو المعرض للخطر من هذا الازدهار الاقتصادي؟

المبدعون مثل الفنانين والموسيقيين وصانعي الأفلام والكتاب هم من بين الصناعات التي لديها العديد من الدعاوى القضائية الجماعية ضد OpenAI وشركة Meta الأم لفيسبوك. تدحض شركات التكنولوجيا الكبيرة التي تستفيد من الذكاء الاصطناعي الادعاءات القائلة بأن عمل الفنانين المحمي بحقوق الطبع والنشر قد تم استخدامه بشكل غير قانوني لتدريب نماذج الذكاء الاصطناعي. يقوم الفنانون بحذف الحسابات على الإنترنت بأعداد كبيرة وتقوم الشركات الإبداعية البارزة مثل Getty Images برفع دعاوى قضائية . رداً على ذلك ، قامت لجنة التجارة الفيدرالية (FTC) مؤخرًا بالتحقيق في ممارسات OpenAI لاستخراج البيانات عبر الإنترنت.

هذا مثال ممتاز على المراحل الأربع لدورة حياة الذكاء الاصطناعي. دعنا نسأل أسئلتنا الأخلاقية:

  1. من اتخذ هذه القرارات؟ ليس التصميمات.
  2. لمن كانت القرارات الأمثل؟ ليس التصميمات.
  3. ما هي تكلفة رأس المال؟ رأس المال البشري؟ رأس المال المالي؟ العاصمه الطبيعيه؟ ربما كان ذلك عبر الثلاثة على حساب التصميمات.
  4. هل كان هناك اعتبار للتأثيرات الاجتماعية والسياسية والاقتصادية؟ ربما ولكن من؟ ليس التصميمات.

هل نحن على استعداد للمخاطرة بقيام جيل من المبدعين والصناعات المجاورة بمنع نشر العمل على الإنترنت؟ كيف سيؤثر ذلك على تطورنا الثقافي الإبداعي ، وسبل عيش المبدعين ، والتأثير الاجتماعي والسياسي بعيد المدى؟ هل فكر شخص ما في هذا التأثير المحتمل ، وحدد ما إذا كانت المخاطر القانونية والمتعلقة بالسمعة لها ما يبررها ، وقرر المضي قدمًا؟

ربما. أو أنهم ببساطة لم يفكروا في الأمر على الإطلاق. في كلتا الحالتين ، كان القرار غير أخلاقي ، بغض النظر عن تفسيرهما للآثار القانونية.

كاقتصاد عالمي ، من الأهمية بمكان تحديد المنظمات التي تعمل ضمن الممارسات الأخلاقية لإعطاء الأولوية لدعمها فوق تلك التي تنتهك المعايير الأخلاقية. من خلال عدم تسليط الضوء على الموقف الأخلاقي لصانعي القرار ، فإننا نتوقع أن ننظر عن غير قصد إلى الاتجاه الآخر على وجه التحديد في اللحظة التي نحتاج فيها إلى تدقيق واسع النطاق.

سؤال جاهز: كيف يمكننا قياس أو قياس أو تحديد الموقف الأخلاقي للشركة؟

دعنا نعرف هنا.

كيف يُحدث الذكاء الاصطناعي تأثيرًا على البيئة

الذكاء الاصطناعي هو بنية تحتية كثيفة الاستهلاك للطاقة. التأثير البيئي بعيد عن الأنظار وبعيد عن الذهن إلى حد كبير ، وغالبًا ما يتم التفكير فيه لاحقًا في مكان مثل قطاع التكنولوجيا.

ذكرت MIT Technology Review أن تدريب نموذج ذكاء اصطناعي واحد يمكن أن ينبعث منه قدر من الكربون مثل خمس سيارات ، أي ما يعادل أكثر من 626000 رطل من ثاني أكسيد الكربون. تلعب معادن الأرض أيضًا دورًا كبيرًا في ما يغذي الطاقة للمعالجة الحاسوبية الجماعية التوليدية للذكاء الاصطناعي. غالبًا ما يأتي التنقيب عن المعادن الضرورية المشاركة في البنية التحتية المادية للحساب على حساب العنف المحلي والجيوسياسي .

"بدون المعادن من هذه المواقع ، فإن الحساب المعاصر ببساطة لا يعمل."

كيت كروفورد
أطلس الذكاء الاصطناعي

تذكر سؤالنا الأخلاقي الثالث: ما هو رأس المال المطلوب لتغذية الذكاء الاصطناعي على نطاق واسع؟ لإجراء تحليل منطقي لتكاليف الفوائد على المدى الطويل. لا ينبغي ترك رأس المال الطبيعي على شكل تأثير على كوكبنا خارج المعادلة إذا كنا شجعانًا بما يكفي لطرح الأسئلة الصحيحة.

قد يكون طرح الأسئلة الصحيحة أمرًا مخيفًا ، خاصة إذا كانت الأسئلة تشير إلى مصدر رزقك كمصدر للخلاف. ولكن لمصلحة المعرفة هي القوة ، يجب على التقنيين تبني الشفافية للمشاركة في النهاية في أي حلول تقنية أخلاقية.

إنه ليس تخريبًا للشركات! ألزمت مجموعة من ممارسي التعلم الآلي "الذين هم أيضًا على دراية بالحالة العامة للبيئة" أنفسهم ببناء أدوات دعم لتقييم انبعاثات الكربون الناتجة عن عملهم. بعد التقييم ، يمكنهم حساب طرق تقليل تلك الانبعاثات. حتى أنهم صنعوا حاسبة الانبعاثات هذه حتى يتمكن ممارسو الذكاء الاصطناعي الآخرون من حساب التقديرات.

سؤال سريع: كيف يمكننا تشجيع التقنيين ومقدمي الخدمات على التحلي بالشجاعة في شفافية الذكاء الاصطناعي الخاصة بهم؟

دعنا نعرف هنا.

كيف تؤثر أطر عمل العائد على الاستثمار على أخلاقيات الذكاء الاصطناعي

لا يمكن للتنظيم وحده أن يحل مشاكل الذكاء الاصطناعي لدينا. غالبًا ما يكون الدافع وراء التقنيين هو المقاييس التي قد تبدو لهم ، بالنسبة لهم ، محايدة من الناحية الأخلاقية لأنها غير منظمة ، لكنها تحقق عائدًا على استثماراتهم. ما هي هذه الأطر التي تدر عائد الاستثمار؟ أين نرى مجموعات القواعد هذه في البرية والتي تعيد شكلاً من أشكال المكافأة للشركة التي تتبع القواعد؟

لنفكر في خوارزمية Google PageRank كمثال على التأثير غير التنظيمي على أخلاقيات التكنولوجيا. تحلل خوارزمية PageRank من Google "مجموعة متنوعة من الإشارات التي تتوافق مع التجربة العامة للصفحة". يتضمن ذلك العناصر التي تتوافق مع أفضل ممارسات تجربة المستخدم ، باتباع إرشادات ADA وسياسات الخصوصية.

لن يعني عدم وجود أنماط ويب مظلمة ترتيبًا مناسبًا. عدم التوافق مع ADA يعني تصنيفات أقل تفضيلاً. من خلال تحسين وجود الموقع واتباع إرشادات Google ، نرى اتخاذ قرارات أخلاقية عن غير قصد ، بناءً على الالتزام بمجموعة غير تنظيمية من القواعد.

لماذا يجب أن يتبع موقع شركتك أفضل الممارسات المقترحة من خوارزمية هذه الشركة الأخرى؟ لأن القيام بذلك يؤدي إلى تأمين أفضل فرصك في الترتيب الجيد على Google. يعد التأثير على قابلية اكتشاف الشركة والأهمية المتصورة عبر الإنترنت ، والذي يؤثر على أرباحها النهائية ، حافزًا ، وبالتالي يؤثر على الممارسات الأخلاقية دون إنفاذ تنظيمي.

سؤال جاهز: كيف يمكننا أن نحمل تقنيينا المسؤولية عن ممارساتهم الأخلاقية خارج الفضاء التنظيمي التقليدي؟ ما الذي وجدوا فيه قيمة؟ من أين يستمدون الوقود لنجاحهم؟

دعنا نعرف هنا.

يبدأ معنا

بغض النظر عن هويتك ، يلعب الجميع دورًا في تقليل المخاطر المصاحبة لاستخدام الذكاء الاصطناعي وأدوات التعلم الآلي بشكل غير أخلاقي. كأفراد ، من الأهمية بمكان أن نتخذ قرارات أخلاقية حول استخدام الذكاء الاصطناعي وكيف - وماذا - نعلم هذه الآلات عن المجتمع.

بدأت قصة الذكاء الاصطناعي للتو وكيف ستغير المستقبل بالكامل هي قصة لم تُكتب ... حتى الآن. لحسن الحظ ، لدينا رأي في كيفية تطور الذكاء الاصطناعي في حياتنا الشخصية والمهنية. كل هذا يعود إلى التأكد من أن الأخلاق في قمة اهتماماتنا.


G2 يريد أن يسمع منك!

للمهتمين بأخلاقيات الذكاء الاصطناعي ، يرجى مشاركة أفكاركم حول ما هو مفقود في هذه المحادثة والأكثر أهمية بالنسبة لك أو لمجال عملك أو شركتك أو مصدر رزقك. أخطط لمواصلة تطوير هذه المحادثة ومشاركة المقالات اللاحقة بناءً على الأفكار والتعلم منك ومن بقية مجتمع G2.

تريد المزيد من الفكر القيادة؟ هذا المقال جزء من سلسلة G2 Voices التي تضم مجموعة متنوعة من قادة G2 ذوي النفوذ.