باستخدام الذكاء الاصطناعي التوليدي؟ فكر في هذه النصائح السبعة من خبير قانوني
نشرت: 2023-09-22باعتباري المستشار العام لشركة G2، فإن وظيفتي هي المساعدة في بناء الشركة وحمايتها، لذلك ليس من المفاجئ على الأرجح أن يكون الذكاء الاصطناعي التوليدي في مقدمة أولوياتي (والمحامين في كل مكان!).
في حين أن الذكاء الاصطناعي يمثل فرصة للمؤسسات، إلا أنه يشكل أيضًا مخاطر. وتثير هذه المخاطر مخاوف جميع قادة الأعمال، وليس فقط الإدارات القانونية.
ومع توفر الكثير من المعلومات، أدرك أن الإبحار في هذه المياه قد يكون صعبًا. لذا، وللمساعدة في الوصول إلى جوهر هذه المخاوف واختزالها في دليل مفيد لجميع قادة الأعمال، جلست مؤخرًا مع بعض من أفضل العقول في مجال الذكاء الاصطناعي في مناقشة مائدة مستديرة في سان فرانسيسكو.
هناك، ناقشنا المشهد المتغير للذكاء الاصطناعي التوليدي، والقوانين التي تؤثر عليه، وما يعنيه كل هذا بالنسبة لكيفية عمل أعمالنا.
لقد توصلنا إلى اتفاق مفاده أن أدوات الذكاء الاصطناعي التوليدية تُحدث ثورة في الطريقة التي نعيش بها ونعمل بها. ومع ذلك، فقد اتفقنا أيضًا على أن هناك العديد من العوامل القانونية التي يجب على الشركات مراعاتها عند الشروع في رحلات الذكاء الاصطناعي التوليدية.
بناءً على هذه المناقشة، إليك سبعة أشياء يجب مراعاتها عند دمج الذكاء الاصطناعي في شركتك.
1. فهم طبيعة الأرض
مهمتك الأولى هي تحديد ما إذا كنت تعمل مع شركة ذكاء اصطناعي أو شركة تستخدم الذكاء الاصطناعي. تقوم شركة الذكاء الاصطناعي بإنشاء تقنيات الذكاء الاصطناعي وتطويرها وبيعها، مع اعتبار الذكاء الاصطناعي عرض أعمالها الأساسي. فكر في OpenAI أو DeepMind.
من ناحية أخرى، تقوم الشركة التي تستخدم الذكاء الاصطناعي بدمج الذكاء الاصطناعي في عملياتها أو منتجاتها ولكنها لا تنشئ تقنية الذكاء الاصطناعي نفسها. يعد نظام توصيات Netflix مثالًا جيدًا على ذلك. إن معرفة الفرق أمر محوري، لأنه يحدد مدى تعقيد المجال القانوني الذي تحتاج إلى التنقل فيه ويفك رموز القوانين التي تنطبق عليك.
تحدد G2 برامج الذكاء الاصطناعي الرئيسية في هذا المجال المتطور. عندما يكون لديك نظرة عامة على الأدوات الممكنة، يمكنك اتخاذ قرارات أفضل بشأن الأداة المناسبة لشركتك.
ترقبوا آخر التطورات في القانون، حيث أن لوائح الذكاء الاصطناعي التوليدية تلوح في الأفق. تتطور التشريعات بسرعة في الولايات المتحدة والمملكة المتحدة وأوروبا. وبالمثل، يجري البت في الدعاوى القضائية المتعلقة بالذكاء الاصطناعي. ابق على اتصال مع محاميك لمعرفة آخر التطورات.
2. اختر الشريك المناسب، مع مراعاة شروط الاستخدام
يمكنك معرفة الكثير عن الشركة من خلال شروط الاستخدام الخاصة بها. ما قيمة الشركة؟ كيف يتعاملون مع العلاقة مع مستخدميهم أو عملائهم؟ يمكن أن تكون شروط الاستخدام بمثابة اختبار حقيقي.
على سبيل المثال، تنص شركة OpenAI صراحةً في سياسات الاستخدام الخاصة بها على أنه لا ينبغي استخدام تقنيتها في تطبيقات ضارة أو خادعة أو غير أخلاقية. يتطلب Bing Chat من المستخدمين الالتزام بالقوانين التي تحظر المحتوى أو السلوك المسيء. وفي الوقت نفسه، يركز Google Bard على أمان البيانات والخصوصية في شروطه - مما يسلط الضوء على التزام Google بحماية بيانات المستخدم. يعد تقييم هذه الشروط أمرًا ضروريًا لضمان توافق عملك مع مبادئ شريك الذكاء الاصطناعي والمتطلبات القانونية.
لقد قمنا بمقارنة شروط الاستخدام وسياسات الخصوصية للعديد من مشغلي الذكاء الاصطناعي الرئيسيين لمساعدتنا في تحديد أدوات الذكاء الاصطناعي التي ستعمل بشكل أفضل مع ملف تعريف المخاطر الخاص بشركتنا ونوصيك بفعل الشيء نفسه.
بين شركتك وشركة الذكاء الاصطناعي، من يملك المدخلات؟ من يملك الإخراج؟ هل سيتم استخدام بيانات شركتك لتدريب نموذج الذكاء الاصطناعي؟ كيف تقوم أداة الذكاء الاصطناعي بمعالجة معلومات التعريف الشخصية وإلى من ترسلها؟ إلى متى سيتم الاحتفاظ بالمدخلات أو المخرجات بواسطة أداة الذكاء الاصطناعي؟
توضح الإجابات على هذه الأسئلة مدى رغبة شركتك في التفاعل مع أداة الذكاء الاصطناعي.
3. التنقل في متاهة حقوق الملكية
عند استخدام أدوات الذكاء الاصطناعي التوليدية، من الأهمية بمكان أن تفهم مدى حق ملكيتك للبيانات التي تضعها في الذكاء الاصطناعي والبيانات المشتقة من الذكاء الاصطناعي.
من منظور تعاقدي، تعتمد الإجابات على الاتفاقية التي أبرمتها مع شركة الذكاء الاصطناعي. تأكد دائمًا من أن شروط الاستخدام أو اتفاقيات الخدمة توضح بالتفصيل حقوق الملكية.
على سبيل المثال، يتخذ OpenAI موقفًا مفاده أنه بين المستخدم وOpenAI، يمتلك المستخدم جميع المدخلات والمخرجات. وبالمثل، يمنح كل من Google Bard وBing Chat من Microsoft و Jasper Chat وAnthropic's Claude الملكية الكاملة لبيانات الإدخال والإخراج للمستخدم، لكنهم يحتفظون في الوقت نفسه لأنفسهم بترخيص واسع النطاق لاستخدام المحتوى الذي ينشئه الذكاء الاصطناعي بعدة طرق.
يمنح Anthropic's Claude ملكية بيانات الإدخال للمستخدم ولكنه فقط "يسمح للمستخدمين باستخدام بيانات الإخراج". تمنح Anthropic نفسها أيضًا ترخيصًا لمحتوى الذكاء الاصطناعي، ولكن فقط "لاستخدام جميع التعليقات أو الأفكار أو التحسينات المقترحة التي يقدمها المستخدمون". تختلف الشروط التعاقدية التي تدخل فيها بشكل كبير عبر شركات الذكاء الاصطناعي.
4. تحقيق التوازن الصحيح بين حق المؤلف والملكية الفكرية
إن قدرة الذكاء الاصطناعي على توليد مخرجات فريدة تثير تساؤلات حول من يتمتع بحماية الملكية الفكرية على تلك المخرجات. هل يمكن للذكاء الاصطناعي إنشاء أعمال محمية بحقوق الطبع والنشر؟ إذا كان الأمر كذلك، فمن هو صاحب حقوق الطبع والنشر؟
القانون ليس واضحًا تمامًا بشأن هذه الأسئلة، ولهذا السبب من المهم أن يكون لديك استراتيجية استباقية للملكية الفكرية عند التعامل مع الذكاء الاصطناعي. فكر فيما إذا كان من المهم لشركتك فرض ملكية IP لمخرجات الذكاء الاصطناعي.
في الوقت الحاضر، تنقسم الولايات القضائية حول وجهات نظرها بشأن ملكية حقوق الطبع والنشر للأعمال التي ينشئها الذكاء الاصطناعي. فمن ناحية، يتخذ مكتب حقوق الطبع والنشر الأمريكي موقفًا مفاده أن الأعمال التي أنشأها الذكاء الاصطناعي، في غياب أي مشاركة بشرية، لا يمكن أن تخضع لحقوق الطبع والنشر لأنها ليست من تأليف الإنسان.
ملاحظة: يقبل مكتب حقوق الطبع والنشر الأمريكي حاليًا التعليق العام حول كيفية مراعاة قوانين حقوق الطبع والنشر للملكية فيما يتعلق بالمحتوى الذي ينشئه الذكاء الاصطناعي.
المصدر: السجل الفيدرالي
بالنسبة للأعمال التي أنشأها الذكاء الاصطناعي والتي تم إنشاؤها جزئيًا عن طريق التأليف البشري، يتخذ مكتب حقوق الطبع والنشر الأمريكي موقفًا مفاده أن حقوق الطبع والنشر ستحمي فقط الجوانب التي ألفها الإنسان، والتي تكون "مستقلة" و"لا تؤثر" على حالة حقوق الطبع والنشر الخاصة بالذكاء الاصطناعي. المادة المولدة نفسها.
من ناحية أخرى، ينص قانون المملكة المتحدة على أن مخرجات الذكاء الاصطناعي يمكن أن تكون مملوكة لإنسان أو شركة، ولا يمكن لنظام الذكاء الاصطناعي أن يكون مؤلفًا أو مالكًا للملكية الفكرية. لا تزال التوضيحات من العديد من الولايات القضائية العالمية معلقة، وهو أمر "يجب مراقبته" من قبل محامي الأعمال، حيث من المتوقع حدوث زيادة كبيرة في الدعاوى القضائية المتعلقة بملكية المنتجات في السنوات القليلة المقبلة.
5. تعرف على مكان تخزين البيانات، وكيفية استخدامها، وقوانين خصوصية البيانات المعمول بها
الخصوصية هي مجال حيوي آخر يجب مراعاته. أنت بحاجة إلى معرفة مكان تخزين بياناتك، وما إذا كانت محمية بشكل كافٍ، وما إذا كانت بيانات شركتك تُستخدم لتغذية نموذج الذكاء الاصطناعي التوليدي.
تقوم بعض شركات الذكاء الاصطناعي بإخفاء هوية البيانات ولا تستخدمها لتحسين نماذجها، في حين قد تفعل شركات أخرى ذلك. من الضروري تحديد هذه النقاط في وقت مبكر لتجنب انتهاكات الخصوصية المحتملة ولضمان الامتثال لقوانين حماية البيانات.
بشكل عام، تتطلب قوانين الخصوصية الحالية بشكل عام من الشركات القيام ببعض الأشياء الأساسية:
- تقديم إشعارات للمستهلكين فيما يتعلق بكيفية معالجة البيانات الشخصية
- في بعض الأحيان، احصل على موافقة الأفراد قبل جمع البيانات الشخصية
- السماح للأفراد بالوصول إلى المعلومات المتعلقة بمعلوماتهم الشخصية أو حذفها أو تصحيحها.
الطريقة التي تم بها بناء الذكاء الاصطناعي، من منظور تقني، من الصعب للغاية فصل المعلومات الشخصية، مما يجعل من الصعب عمليًا الالتزام الكامل بهذه القوانين. تتغير قوانين الخصوصية باستمرار، لذلك نتوقع بالتأكيد أن ظهور الذكاء الاصطناعي سوف يلهم المزيد من التغييرات على هذه القوانين.
6. كن على دراية باللوائح المحلية
إذا كانت شركتك تعمل في الاتحاد الأوروبي، يصبح الامتثال للائحة العامة لحماية البيانات (GDPR) أمرًا بالغ الأهمية. تحافظ اللائحة العامة لحماية البيانات (GDPR) على لوائح صارمة فيما يتعلق بالذكاء الاصطناعي، مع التركيز بشكل خاص على الشفافية وتقليل البيانات وموافقة المستخدم. يمكن أن يؤدي عدم الامتثال إلى غرامات باهظة، لذلك من الضروري فهم هذه اللوائح والالتزام بها.
مثل اللائحة العامة لحماية البيانات، يعد قانون الذكاء الاصطناعي (AIA) الذي اقترحه الاتحاد الأوروبي بمثابة إطار قانوني جديد يهدف إلى تنظيم تطوير واستخدام أنظمة الذكاء الاصطناعي. وينطبق هذا على أي شركة ذكاء اصطناعي تتعامل مع مواطني الاتحاد الأوروبي، حتى لو لم يكن مقر الشركة في الاتحاد الأوروبي.
تنظم AIA أنظمة الذكاء الاصطناعي بناءً على نظام تصنيف يقيس مستوى المخاطر التي يمكن أن تشكلها التكنولوجيا على سلامة الإنسان وحقوقه الأساسية.
تشمل مستويات المخاطر ما يلي:
- منخفضة أو قليلة (chatbots)
- عالية (العمليات الجراحية بمساعدة الروبوت، وتسجيل الائتمان)
- غير مقبول (محظور، استغلال الفئات الضعيفة وتمكين التسجيل الاجتماعي من قبل الحكومة)
يجب على كل من شركات الذكاء الاصطناعي والشركات التي تدمج أدوات الذكاء الاصطناعي أن تفكر في جعل أنظمة الذكاء الاصطناعي الخاصة بها متوافقة منذ البداية من خلال دمج ميزات AIA أثناء مراحل تطوير التكنولوجيا الخاصة بها.
يجب أن تصبح AIA سارية المفعول بحلول نهاية عام 2023 مع فترة انتقالية مدتها سنتان لتصبح متوافقة، وقد يؤدي الفشل في تطبيقها إلى فرض غرامات تصل إلى 33 مليون يورو أو 6٪ من الدخل العالمي للشركة (أكثر حدة من اللائحة العامة لحماية البيانات، والتي يعتبر عدم الامتثال لها أمرًا بالغ الأهمية). يعاقب بمبلغ أكبر قدره 20 مليون يورو أو 4% من الدخل العالمي للشركة).
7. تحديد الواجبات الائتمانية والمواءمة بينها
وأخيرًا، يتحمل مسؤولو ومديرو شركتك واجبات ائتمانية للعمل بما يحقق مصلحة الشركة. لا شيء جديد هناك. لكن الجديد هو أن واجباتهم الائتمانية يمكن أن تمتد إلى القرارات المتعلقة بالذكاء الاصطناعي التوليدي.
هناك مسؤولية إضافية تقع على عاتق مجلس الإدارة لضمان الاستخدام الأخلاقي والمسؤول للشركة للتكنولوجيا. يجب على المسؤولين والمديرين النظر في القضايا القانونية والأخلاقية المحتملة، وتأثيرها على سمعة الشركة، والآثار المالية عند العمل باستخدام أدوات الذكاء الاصطناعي.
يجب أن يكون المسؤولون والمديرون على علم تام بمخاطر وفوائد الذكاء الاصطناعي التوليدي قبل اتخاذ القرارات. في الواقع، تقوم العديد من الشركات الآن بتعيين كبار مسؤولي الذكاء الاصطناعي الذين تتمثل مسؤوليتهم في الإشراف على استراتيجية الشركة ورؤيتها وتنفيذها.
سيؤثر الذكاء الاصطناعي بشكل كبير على الواجبات الائتمانية لمسؤولي الشركة ومديريها. تشير الواجبات الائتمانية إلى المسؤوليات التي يتعين على قادة الشركة التصرف فيها بما يحقق مصلحة الشركة ومساهميها.
الآن، مع ظهور الذكاء الاصطناعي، سيحتاج هؤلاء القادة إلى مواكبة تكنولوجيا الذكاء الاصطناعي للتأكد من أنهم يتخذون أفضل القرارات للشركة. على سبيل المثال، قد يحتاجون إلى استخدام أدوات الذكاء الاصطناعي للمساعدة في تحليل البيانات والتنبؤ باتجاهات السوق. وإذا تجاهلوا هذه الأدوات واتخذوا قرارات سيئة، فقد يُنظر إليهم على أنهم لا يقومون بواجباتهم.
ومع تزايد انتشار الذكاء الاصطناعي، سيحتاج المسؤولون والمديرون إلى مواجهة التحديات الأخلاقية والقانونية الجديدة، مثل خصوصية البيانات والتحيز الخوارزمي، لضمان أنهم يديرون الشركة بطريقة مسؤولة وعادلة. لذا، يضيف الذكاء الاصطناعي طبقة جديدة من التعقيد إلى ما يعنيه أن تكون قائدًا جيدًا للشركة.
وضع القانون مع الذكاء الاصطناعي
في الشهر الماضي فقط، تم تقديم قطعتين جديدتين من التنظيم التوليدي للذكاء الاصطناعي إلى الكونجرس. أولاً، القسم 230 من قانون حصانة الذكاء الاصطناعي ، وهو مشروع قانون يهدف إلى حرمان منصات الذكاء الاصطناعي التوليدية من الحصانة بموجب المادة 230 بموجب قانون آداب الاتصالات .
ملاحظة: تعمل الحصانة بموجب المادة 230 بشكل عام على عزل خدمات الكمبيوتر عبر الإنترنت من المسؤولية فيما يتعلق بمحتوى الطرف الثالث الذي تتم استضافته على موقعه ويتم إنشاؤه بواسطة مستخدميه. يجادل معارضو مشروع القانون هذا بأنه نظرًا لأن المستخدمين يقدمون المدخلات، فإنهم هم منشئو المحتوى، وليسوا منصة الذكاء الاصطناعي التوليدية.
وبدلاً من ذلك، يجادل مؤيدو مشروع القانون بأن المنصة توفر المعلومات التي تولد المخرجات استجابة لمدخلات المستخدم، مما يجعل المنصة منشئًا مشاركًا لهذا المحتوى.
يمكن أن يكون لمشروع القانون المقترح تأثير كبير، حيث يمكن أن يحمل شركات الذكاء الاصطناعي المسؤولية عن المحتوى الذي ينشئه المستخدمون باستخدام أدوات الذكاء الاصطناعي.
السياسة الثانية، إطار SAFE للابتكار في الذكاء الاصطناعي ، تركز على خمسة أهداف للسياسة: الأمن، والمساءلة، والأسس، والشرح، والابتكار. يهدف كل هدف إلى تحقيق التوازن بين الفوائد المجتمعية للذكاء الاصطناعي التوليدي ومخاطر الضرر المجتمعي، بما في ذلك إساءة استخدام إزاحة الوظائف بشكل كبير من قبل الخصوم والجهات الفاعلة السيئة، والمعلومات المضللة، وتضخيم التحيز.
استمر في البحث عن قوانين جديدة بشأن الذكاء الاصطناعي التوليدي والتصريحات المتعلقة بكيفية تفاعل نشر الذكاء الاصطناعي التوليدي مع القوانين واللوائح الحالية.
ملحوظة: من المتوقع أن تكون انتخابات 2024 المقبلة محورية بالنسبة لمشهد الذكاء الاصطناعي التوليدي من منظور تنظيمي. HIPAA ، على سبيل المثال، ليس قانونًا للذكاء الاصطناعي ولكنه سيحتاج إلى العمل مع لوائح الذكاء الاصطناعي التوليدية.
في حين أن فرقك القانونية ستبقيك على اطلاع، فمن المهم أن يكون لدى جميع قادة الأعمال وعي بالقضايا.
لا تحتاج إلى أن تكون خبيرًا في جميع التفاصيل القانونية، ولكن فهم الاعتبارات السبعة سيساعدك على معالجة المخاوف ومعرفة متى تلجأ إلى المستشار القانوني للحصول على مشورة الخبراء.
عندما تتم الشراكة بين الذكاء الاصطناعي والأعمال بشكل صحيح، سنكون جميعًا قادرين على المساهمة في نمو أعمالنا وحمايتها - وتسريع الابتكار وتجنب المخاطر.
هل تتساءل كيف يؤثر الذكاء الاصطناعي على الصناعة القانونية ككل؟ احصل على المزيد حول تطور الذكاء الاصطناعي والقانون وما يخبئه المستقبل للزوج.