الآثار النفسية لاستنساخ الذكاء الاصطناعي والتزييف العميق

منذ 2024-05-13

ما هو شعورك حيال الحصول على نسخة من الذكاء الاصطناعي أو نسخة رقمية من نفسك؟

د. كمال المرزوقي

تتراوح المخاوف من سوء الاستخدام إلى التأثير المحتمل على السمعة والهوية.

ما هو شعورك حيال الحصول على نسخة من الذكاء الاصطناعي أو نسخة رقمية من نفسك؟

 

أصبحت تقنية النسخ الرقمي لمظهر وسلوك الأشخاص الحقيقيين - أحياءً أو أمواتًا - حقيقة واقعة الآن مع تقدم الذكاء الاصطناعي، واستنساخ الصوت، والتزييف العميق التفاعلي. هناك العديد من الإمكانيات والتطبيقات المثيرة لاستنساخ الذكاء الاصطناعي - عندما يتم ذلك بمعرفة الشخص وإذنه - بما في ذلك إنشاء المحتوى بشكل أسرع، وزيادة الإنتاجية الشخصية، وإنشاء إرث رقمي. لكن هذه التكنولوجيا فتحت أيضًا صندوق باندورا من سوء الاستخدام - عمليات التزييف العميق المضللة والخادعة التي تستخدم نسخًا من الأشخاص تم إنشاؤها بواسطة الذكاء الاصطناعي دون إذنهم.

 

خسرت إحدى الشركات مؤخرًا 25 مليون دولار بعد أن تم خداع أحد موظفيها في عملية تصيد احتيالي باستخدام مؤتمر فيديو مع المدير المالي وزملائه الذين أنشأهم الذكاء الاصطناعي العميق. أُسيء استخدام صورة تايلور سويفت لإنشاء صور مزيفة صريحة، وقام أنصارها بالتعبئة على وسائل التواصل الاجتماعي لإزالة هذه الصور. وفي عام 2022، أعلن مكتب التحقيقات الفيدرالي أنه تم استخدام تقنية التزييف العميق للتقدم إلى الوظائف عن بعد.

 

تم استخدام العديد من المصطلحات بشكل متبادل لاستنساخ الذكاء الاصطناعي: النسخة المتماثلة للذكاء الاصطناعي، أو الوكيل، أو التوأم الرقمي، أو الشخصية، أو الصورة الرمزية، أو الإنسان الافتراضي. أُطلق على استنساخ الذكاء الاصطناعي للأشخاص الذين ماتوا اسم ثانابوت، وروبوتات الحزن، وروبوتات الموت، وروبوتات البرزخ، وروبوتات الأشباح، ولكن لا يوجد حتى الآن مصطلح موحد يحدد استنساخ الذكاء الاصطناعي للأشخاص الأحياء.

Deepfake  هو المصطلح المستخدم عندما يتم إساءة استخدام صورة معدلة أو تم إنشاؤها بواسطة الذكاء الاصطناعي لخداع الآخرين أو نشر معلومات مضللة.

 

منذ عام 2019، أجريت مقابلات مع مئات الأشخاص حول آرائهم حول التوائم الرقمية أو استنساخ الذكاء الاصطناعي من خلال أدائي Elixir: Digital Immortality، استنادًا إلى شركة ناشئة تقنية خيالية تقدم استنساخًا للذكاء الاصطناعي. وكانت استجابة الجمهور العام هي الفضول والقلق والحذر. تسلط دراسة حديثة الضوء على ثلاثة مجالات مثيرة للقلق بشأن استنساخ الذكاء الاصطناعي: "رهاب الشبيه"، وتجزئة الهوية، والذكريات الحية الزائفة.

 

الآثار النفسية الضارة المحتملة لاستنساخ الذكاء الاصطناعي

 

هناك العديد من الآثار النفسية السلبية المحتملة لاستنساخ الذكاء الاصطناعي، خاصة عندما تتم سرقة نسخ الذكاء الاصطناعي أو التلاعب بها أو إساءة استخدامها بطريقة احتيالية.

 

1. التوتر والقلق بشأن إساءة استخدام استنساخ الذكاء الاصطناعي، بما في ذلك التزييف العميق

 

يعد أمن وسلامة نسخ الذكاء الاصطناعي وبيانات التدريب الخاصة بها من أهم الأولويات. لسوء الحظ بالنسبة للمبدعين الرقميين والشخصيات العامة، فإن الكثير من بيانات التدريب اللازمة لاستنساخ صوت أو صورة شخص ما موجودة بالفعل من خلال البث الصوتي، أو مقاطع الفيديو، أو الصور، أو الكتب، أو المقالات. تشير الأبحاث حول سرقة الهوية وإساءة استخدام التزييف العميق إلى أن استخدام نسخة من الذكاء الاصطناعي دون موافقتهم يمكن أن يؤدي إلى القلق والتوتر ومشاعر العجز والانتهاك. يُطلق على الخوف من استنساخ الذكاء الاصطناعي اسم "رهاب المثيل".

 

2. انعدام الثقة وعدم اليقين حيث يصبح الخط الفاصل بين الواقع والخيال غير واضح

 

غالبًا ما يكون من المستحيل على الأشخاص تحديد ما إذا كان الفيديو أو الصورة أو الصوت حقيقيًا أو وسائط اصطناعية تم إنشاؤها بواسطة الذكاء الاصطناعي دون تحليل الطب الشرعي. أظهرت الأبحاث أن الوجوه التي يولدها الذكاء الاصطناعي تبدو أكثر واقعية من الوجوه البشرية. سيتعين على الجمهور الاعتماد على التدقيق الخارجي فيما يتعلق بصحة وسائل الإعلام. من المحتمل أن يكشف هذا عن التحيزات المعروفة - من المرجح أن يتم تصديق المعلومات السلبية في وسائل الإعلام أكثر من المعلومات الإيجابية. وقد استغلت بعض الشخصيات العامة مناخ عدم اليقين هذا لصالحها، حيث ألقت بظلال من الشك على مصداقية وسائل الإعلام في ظاهرة تسمى "أرباح الكذاب".

هكذا صار كلّ من يرتكب جرما مفضوحا يدعي أنه فوتوشوب قديما وذكاء اصطناعي حديثا.

 

3. مخاوف بشأن تجزئة الهوية وصحة استنساخ الذكاء الاصطناعي

 

تساهم الهويات الرقمية في تجزئة الهوية، لكنها قد تمنح الأشخاص أيضًا فرصة للتعبير عن هويات أكثر مرونة. إن تأثير استنساخ الذكاء الاصطناعي على هوية الشخص غير معروف ومن المرجح أن يعتمد على التطبيق والسياق والتحكم في استنساخ الذكاء الاصطناعي. من الناحية المثالية، يجب أن يكون لدى الناس طرق مباشرة للتحكم في سلوك وشخصية مستنسخاتهم من الذكاء الاصطناعي. على سبيل المثال، يعد ضبط "درجة الحرارة" طريقة للمستخدمين لضبط مستوى العشوائية في مخرجات نموذج الذكاء الاصطناعي.

 

4. خلق ذكريات كاذبة

 

تظهر الأبحاث في مجال التزييف العميق أن آراء الناس يمكن أن تتأثر بالتفاعل مع نسخة رقمية طبق الأصل، حتى عندما يعلمون أنها ليست الشخص الحقيقي. هذا يمكن أن يخلق ذكريات "كاذبة" لشخص ما. الذكريات الكاذبة السلبية يمكن أن تضر بسمعة الشخص الذي تم تصويره. يمكن أن يكون للذكريات الكاذبة الإيجابية تأثيرات معقدة وغير متوقعة على العلاقات الشخصية أيضًا. قد يؤدي التفاعل مع استنساخ الذكاء الاصطناعي الخاص بك أيضًا إلى ظهور ذكريات زائفة.

 

5. التدخل المحتمل في الحزن.

 

إن التأثير النفسي لروبوتات الحزن أو ثانابوت، أو مستنسخات الذكاء الاصطناعي التي تصور الأشخاص الذين ماتوا، على أحبائهم غير معروف. تتضمن بعض أشكال علاج الحزن إجراء "محادثة خيالية" مع الشخص المتوفى. ومع ذلك، عادة ما تكون هذه هي المرحلة الأخيرة بعد عدة جلسات يشرف عليها معالج محترف. يجب أن يكون التوجيه المهني من المعالجين المدربين متاحًا ومدمجًا في المنصات التي تقدم روبوتات الحزن أو ثانابوت.

 

6. زيادة الضغط حول المصادقة

 

يؤدي الارتفاع السريع في التزييف العميق للاحتيال وتجاوز المصادقة البيومترية إلى زيادة الضغط لوضع طرق جديدة للمصادقة. توقع بعض الخبراء أن 30% من الشركات ستفقد الثقة في حلول المصادقة البيومترية للوجه بحلول عام 2026. ومن المحتمل أن يؤدي هذا إلى زيادة الجهد المطلوب من قبل المستخدمين لتمرير المصادقة.

 

الحلول المحتملة في التعليم والكشف عن التزييف العميق والمصادقة المبتكرة

 

تشمل الحلول المحتملة لمكافحة إساءة استخدام استنساخ الذكاء الاصطناعي والتزييف العميق التثقيف العام، ومتطلبات الكشف عن الذكاء الاصطناعي، واكتشاف التزييف العميق، والمصادقة المتقدمة. سيؤدي التثقيف حول التزييف العميق واستنساخ الذكاء الاصطناعي إلى زيادة الوعي حتى يمكن تمكين الجمهور من الإبلاغ عن التفاعلات الافتراضية المشكوك فيها وعالية المخاطر.

 

يجب أن تطلب المنصات أيضًا من المستخدمين الكشف عن وقت تحميل الوسائط التي تم إنشاؤها أو معالجتها بواسطة الذكاء الاصطناعي، على الرغم من أن تطبيق هذا المطلب قد يكون صعبًا. طلب YouTube مؤخرًا من المستخدمين الكشف عن موعد تحميل محتوى تم تعديله بواسطة الذكاء الاصطناعي. إن دمج الكشف عن التزييف العميق في مؤتمرات الفيديو ومنصات الاتصالات التي تحدد الوسائط الاصطناعية تلقائيًا سيساعد في حماية المستخدمين. وأخيرا، سيصبح تطوير تقنيات جديدة للتوثيق تتجاوز القياسات الحيوية للوجه أو الصوت ضروريا بشكل متزايد لحماية المستهلكين ومنع الأنشطة الاحتيالية.

 

 

مراجع:

Patrick Young-Kang Lee, Ning F. Ma, Ig-Jae Kim, and Trianguk Yoon. 2023. Speculate on the dangers of artificial intelligence cloning on the self and relationships: resemblance, identity fragmentation, and lost memories. Brooke. ACM Home.-Computer. He reacts. 7, CSCW1, Article 91 (April 2023), 28 pages

كمال المرزوقي

رئيس جامعة الإمام مالك للعلوم الشّرعيّة بتونس.

  • 1
  • 0
  • 233

هل تود تلقي التنبيهات من موقع طريق الاسلام؟

نعم أقرر لاحقاً