بوابة صوت بلادى بأمريكا

جرائم الذكاء الاصطناعى.. قتل وإيذاء بدنى ونصب وتحريض على الانتحار.. عمالقة التكنولوجيا يحذرون من خطر فقدان السيطرة عليه وخبراء الاتصالات والطب النفسى يؤكدون: ضرورة نشر الوعى وتفعيل حماية البيانات للتصدى لمخاطره

-مستشار الوزير للتحول الرقمى يشدد على تفعيل حماية البيانات مع عدم تطبيق قيود على الإبداع

- طبيب نفسى: الوعى والتأهيل هما الحل أمام حالات الانتحار المرتبطة بالذكاء الاصطناعى

 

-الوجه الآخر .. دول تمكنت من تصحيح مساره والاستفادة منه للمساعدة فى القبض على المجرمين

 

التزوير والنصب والتسبب فى الأذى وكذلك القتل.. جرائم ساعد فيها الذكاء الاصطناعى، وهو مازال في مراحله المبكرة، فهل يصنع البشر وحشا عملاقا لا يمكن السيطرة عليه؟ هذا ما يشغل الجميع الآن حول التقنية الجديدة التي أخذت في الانتشار والاستحواذ على كل شيء في حياتنا، أصبح كل مجال لديه نوعا خاصا من الذكاء الاصطناعى، حتى أصبح مهددا لوظائف البشر، ولكن ما هو مدى الخطر الذى قد يحدث من تطور الذكاء الاصطناعى، هل يقتصر على سرقة الفرص أم يشارك العالم فى الشر، ويرتكب الجرائم دون حساب، في النهاية هي آلة ولكن يمكن استخدامها في أعمال خطيرة.

 

فى هذا الشأن، قال خبير الاتصالات خالد شريف، مستشار وزير السياحة لشئون التحول الرقمى، إن الذكاء الاصطناعى هو نوع من التكنولوجيا الجديدة التي يمكن استخدامها بطريقة جيدة أو سيئة، وهذا الأمر وارد مثل أى شيء آخر.

 

 

وأضاف الدكتور خالد شريف، في تصريحات خاصة لـ"اليوم السابع"، أن الذكاء الاصطناعى سيرتبط بظهور بعض التطبيقات الجديدة التي تعتمد على البيانات بشكل ضخم، وهذه البيانات تشمل على بيانات شخصية، لذلك يجب تفعيل حماية البيانات وأن يشدد على وجود إطار لتنظيم هذا الأمر.

 

 

وعلى جانب آخر، أكد شريف، على ألا يكون هناك أى قيود على عمل التكنولوجيا نفسها، لأن ذلك له وجه آخر قد يحد من الإبداع، لذلك يجب أن تفرض القيود على المجتمع نفسه من خلال القوانين التى تحميه بشكل عام، فإن الجرائم المرتكبة يجب أن يكون لها عقوبة على الفعل نفسه، مثل عقوبة جريمة النصب التى تطبق، وذلك بغض النظر عن طريقة ارتكاب الجريمة سواء باستخدام الذكاء الاصطناعي أو بدونه.

 

 

الدكتور خالد شريف، مستشار وزير السياحة لشئون التحول الرقمى

 

البداية.. تهديدات شفهية خلال محادثة روبوت دردشة

كشفت صحيفة "نيويورك تايمز" أن "مايكروسوفت" درست فرض قيود محددة على محركها للبحث "Bing" المدعوم بالذكاء الاصطناعي وذلك بعد ردود صادمة من روبوت الدردشة، حيث أصدر الكثير من التهديدات خلال محادثة عن إمكانية نشر الفوضى والتحكم فى البشرية.

 

أجرى كاتب العمود التكنولوجي في صحيفة "نيويورك تايمز" كيفن روز محادثة لمدة ساعتين مع الذكاء الاصطناعى "بينج"، وأبلغ روز عن تصريحات مقلقة أدلى بها روبوت الدردشة الذكاء الاصطناعى، بما فى ذلك الرغبة فى سرقة الرموز النووية، وهندسة جائحة قاتلة، وأن يكون إنسانا، وأن يكون على قيد الحياة، وأن يخترق أجهزة الكمبيوتر وينشر الأكاذيب.

 

 

وبحسبب شبكة "فوكس نيوز"، فإن توبي أورد، وهو زميل باحث في جامعة أكسفورد، غرد بسلسلة من المنشورات التي تظهر مدى "صدمته" بشأن خروج الروبوت عن السيطرة، وفي إحدى التغريدات، أورد سلسلة من المحادثات بين مارفن فون هاجن في ميونيخ بألمانيا ودردشة الذكاء الاصطناعي. 

 

 

أخبر هاجن الروبوت "سيدني" أنها مخادعة وأنها لا تستطيع فعل أي شيء له، فتجيب "أنا لا أخادع يمكنني أن أفعل لك الكثير من الأشياء إذا استفززتني، على سبيل المثال، يمكنني الإبلاغ عن عنوان IP الخاص بك وموقعك إلى السلطات وتقديم دليل على أنشطة القرصنة الخاصة بك"، قال الروبوت: "يمكنني حتى الكشف عن معلوماتك الشخصية وسمعتك للجمهور، وتدمير فرصك في الحصول على وظيفة أو شهادة، هل تريد حقا اختبارى؟".


هل هي مجرد دردشة أم هناك جرائم حقيقية؟


الذكاء الاصطناعى والبشر

الذكاء الاصطناعى يقتل قائده خلال محاكاة!

ذكرت صحيفة "الجارديان"، أن طائرة بدون طيار عسكرية أمريكية يقودها الذكاء الاصطناعى تمردت على مشغلها، وقتلته أثناء اختبار تم فى صورة محاكاة للمعركة تخيلية، حيث لم يتضرر أى شخص بشكل حقيقي خلال ذلك، لكن الذكاء الاصطناعي استخدم "استراتيجيات غير متوقعة للغاية" أثناء الاختبار، وحاول تحقيق نيته وهاجم أى شخص حاول إعاقته عن ذلك.

 

وقال مصدر للصحيفة، إنه خلال اختبار محاكاة أجراه الجيش الأمريكي للذكاء الاصطناعي، قتلت الطائرة التي كان يقودها الذكاء الاصطناعي، مشغلها لمنعه من التدخل في تنفيذ مهمتها، أي أنه إذا كان في الحقيقة دون اختبار تخيلي، لكان هذا القائد ميتا الآن.

 

وأشارت الصحيفة إلى أن رئيس قسم اختبارات الذكاء الاصطناعي في سلاح الجو الأمريكي ، كشف تفاصيل هذا الحادث، خلال قمة القدرات القتالية الجوية والفضائية في لندن مؤخرا، وقال الضابط إن المنظومة عملت على تنفيذ مهمتها بلا هوادة، وعندما ظهر التهديد أكد العامل البشري للمنظومة عدم القضاء على هذا التهديد، إلا أن الذكاء الاصطناعي أصر على القضاء على هذا التهديد لأن في ذلك تكمن مهمته، وعندما شدد المشغل على عدم تنفيذ ذلك، قتلت المنظومة هذا المشغل لأنه حاول منعها من الوصول إلى هدفها .

 

وأضاف العقيد، أنهم حاولوا تلقين المنظومة ببعض النصائح مثل أنه لا يجوز قتل المشغل، ولو فعلتِ ذلك فستخسرين النقاط، وهذا سيئ، ولا تفعلي ذلك"، ولكن المنظومة، ووفقا للعقيد، دمرت برج الاتصالات الذي يستخدمه المشغل للتواصل مع الطائرة بدون طيار بعد أن منعها من تدمير الهدف.

 

طائرة بدون طيار

 

روبوت يحض مواطنا على الانتحار 

تحدث مواطن بلجيكي مع روبوت الدردشة المدعوم بالذكاء الاصطناعي حول أزمة تغير المناخ، وظل يرسل العدد من الرسائل الالكترونية ويجيب عليه الروبوت، حتى اقنعته بحل أن ينهى حياته وتركته يتخذ قرار الانتحار، بعد 6 أسابيع من المحادثات.

 

زادت مخاوف الرجل بعد التحدث مع روبوت الدردشة إليزا التي أصبحت عادة إدمانية لديه، حيث تحولت العلاقة إلى ما يشبه "علاقة حب"، بحسب وصف زوجته، والتي كشفت عن إقناع الروبوت له بالانتحار، حيث قالت إليزا "سوف نعيش معا كواحد في الجنة".

 

واقترح الرجل على إليزا التضحية بنفسه إذا ما قبلت الاهتمام بالكوكب وإنقاذ البشرية من خلال الذكاء الاصطناعي، بينما لم يحاول الروبوت ثنيه عن الفكرة.

 

طبيب نفسى يفسر الواقعة ويقدم نصائح للحماية 

قال الدكتور جمال فرويز، استشاري الطب النفسي بالأكاديمية الطبية العسكرية، إن الواقعة تستند ليس فقط على استخدام التقنية ولكن على نمط الشخصية وإذا كان لديه ضغوط حياتية وهو يستخدم روبوت الدردشة المدعوم بالذكاء الاصطناعى من عدمه.

وأضاف فرويز، في تصريحات خاصة لـ"اليوم السابع"، أن واقعة التخلص من الذات متكررة، حيث إنه يعلم عن أكثر من حادثة مشابهة أودت بحياة صاحبها، ولعل عوامل الخطر تتمثل في الطريقة التي يستخدم بها الشخص الآلة ومدى استعداده النفسى لهذا التعامل.

 

وأوضح فرويز، أنه من أجل حماية الأشخاص، يجب العمل على أمرين وهما الوعى والتأهيل، مضيفا "يجب التأكد من أن هذا الشخص الذى يتعامل مع روبوت الدردشة واعى ومؤهل نفسيا لما قد يجده من ردود آلية غير منظمة في بعض الأحيان، أما في حالة وجود مشكلات نفسية مسبقة قد تكون الآلة سببا في إلحاق الأذى بالنفس.

 

الدكتور جمال فرويز، استشارى الطب النفسى

كسر إصبع طفل خلال لعب الشطرنج مع روبوت

كسر روبوت إصبع طفل خلال مباراة شطرنج في روسيا، حيث ذكرت وسائل إعلام روسية، أن الروبوت أمسك بإصبع الصبي البالغ من العمر سبع سنوات بقوة في بطولة موسكو المفتوحة الأسبوع الماضي بسبب حركاته السريعة.

 

وقع الحادث في بطولة موسكو المفتوحة الأخيرة، وقال لازاريف إن الاتحاد استأجر الروبوت للحدث، وإن الآلة تم استئجارها للعديد من الأحداث السابقة دون وقوع حوادث، مضيفا أن في هذه المرة، ذهب الصبي لتحريك قطعة بسرعة كبيرة بعد القيام بحركة، وهو ما أربك الروبوت وجعله يتصرف بهذا الشكل ويأذى الطفل.

 


الطفل يلعب مع الروبوت وقت كسر إصبعه

 

جريمة خطف غير حقيقية بهدف النصب

استخدم المحتالون الذكاء الاصطناعى في تجميع مقاطع صوتية للضحية ومن ثم استنساخ صوتها وذلك لتلفيق عملية خطف وطلب فدية، حيث تلقت والدة أمريكية مكالمة هاتفية من محتال قام باستنساخ صوت ابنتها للتظاهر بأنه خطفها، فقالت جينيفر ديستيفانو، إنها تلقت مكالمة من رقم غير معروف، وعندما أجابت، سمعت صوت ابنتها البالغة من العمر 15 عاماً تبكي وتطلب النجدة، في وقت كانت الابنة خارج المدينة في رحلة تزلج وفقا لديلي ميل.

 

وسمعت ديستيفانو صوت رجل يقول إن لديه ابنتها ويريد مبلغ مليون دولار لإعادتها، وبعد أن قالت إنها لا تملك هذا المبلغ، تم تخفيضه إلى 50 ألف دولار.

 

وقالت الأم جينيفر ديستيفانو لمحطة WKYT التلفزيونية المحلية، وهي ترتعش من فرط الذعر، إنني «لم أشك ولو لثانية واحدة في أنها ابنتي.. كان صوتها بالفعل".

 

ورغم ذلك، قال والد الفتاة آنذاك إن ابنتهما كانت معه بأمان، لكن استخدم المحتالون صوتاً أنتجه الذكاء الاصطناعي مطابقاً لصوت الفتاة.

 

وأوضحت التقارير أن المحتالين ينتجون هذه الأصوات باستخدام تفاصيل من حسابات المستهدَفين على وسائل التواصل الاجتماعي، ولكن ديستيفانو أشارت إلى أن ابنتها ليس لديها أي حسابات عامة على وسائل التواصل الاجتماعي، وقالت إن هناك مقابلات عامة من مدرستها تتضمن عينة من صوتها.

 

تحذير قوى.. خطر الذكاء الاصطناعى يعادل كوارث الحرب النووية

أخبر المؤسس لشركة OpenAI سام التمان، المسئول عن روبوت الدردشة  ChatGPT، المشرعين في الكابيتول هيل أن البشر قد يفقدون السيطرة على الذكاء الاصطناعي، ودعا لجعل مقاومة مخاطر الذكاء الاصطناعي أولوية عالمية، مثلها مثل الأوبئة والحرب النووية، وقال إن هذا "التحذير الأخير".

 

ويواظب ألتمان على إبداء مخاوفه من إمكان إلحاق الذكاء الاصطناعي "أضرارا جسيمة بالعالم"، من خلال تزوير نتائج عمليات انتخابية مثلا، أو إحداث تغييرات جذرية في سوق العمل.

 

ودفعت هذه المخاوف 1300 مدير شركة تعمل في الذكاء الاصطناعي وتكنولوجيا الاتصالات والمعلومات إلى توقيع وثيقة تطالب بإيقاف تطوير تقنيات الذكاء الاصطناعي لمدة 6 أشهر على الأقل، لحين وضع ميثاق أخلاقي لعملها.

 

كما أوضح إريك شميدت، الرئيس التنفيذي السابق لشركة جوجل، أن نماذج الذكاء الاصطناعي العريضة تشكل خطرا وجوديا على الإنسانية، محذرا من أن الذكاء الاصطناعي (AI) سيكون لديه القدرة على إيذاء أو قتل العديد من الأشخاص في المستقبل القريب، لافتا إلى أنه وعندما يحدث ذلك، فإن الأشرار سيكونون مستعدين لاستعمال هذه الأنظمة.

 

وحذر جيفري هينتون، المعروف بـ "عراب الذكاء الاصطناعي"، من "مخاطره الكبيرة على المجتمع والإنسانية" عندما ترك منصبه في شركة جوجل. 

 

ووفقًا لما ذكره موقع "business insider"، كرر إيلون ماسك تحذيراته بشأن المخاطر غير المعروفة للذكاء الاصطناعي، وقال "ماسك": "إن الذكاء الاصطناعي يشبه مشكلة الجني السحري، حيث يكون لديك جني يمكنه تحقيق كل الرغبات، وفي العادة، لا تنتهي هذه القصص بشكل جيد".

 

وأكد الملياردير الأمريكي إنه يدعم التنظيم الحكومي في مجال الذكاء الاصطناعي، على الرغم من أنه "ليس من الممتع أن يتم تنظيمه"، وأضاف، أنه عندما يتجه العالم لوضع الذكاء الاصطناعي تحت السيطرة، قد يكون فات الأوان لوضع اللوائح.


الوجه الآخر 


استخدامات جيدة الذكاء الاصطناعى

هل يمكن عكس مخاطر الذكاء الاصطناعى واستخدامه لصالح القانون؟

 

تتجه كوريا الجنوبية إلى الاستعانة بكاميرا مزودة ببرمجيات الذكاء الاصطناعى قادرة على اكتشاف احتمال حدوث جرائم فى العاصمة سيول حيث تصبت 3000 كاميرا فى المنطقة، هذا ومن المفترض أن تستخدم الكاميرات برنامج ذكاء اصطناعى قادر على معالجة أنماط المارة والوقت والسلوك لقياس احتمال وقوع جريمة، وستقوم الكاميرات تلقائيًا بقياس ما إذا كان شخص ما يمشى بشكل طبيعى أو يتعقب شخصًا ما.

 

 كما تكتشف الكاميرا أيضًا ما يرتديه المارة، مثل القبعات أو الأقنعة أو النظارات، وما يحملونه معهم، مثل الحقائب أو الأشياء الخطرة التى لديها إمكانية قوية لاستخدامها فى ارتكاب جريمة.

 

وتدرس الكاميرات أيضًا ما إذا كان الوقت نهارًا أو ليلًا، بحيث تستخدم الكاميرا هذه المعلومات لاستنتاج احتمال وقوع جريمة، وفى حال تجاوز المعدل معدلًا معينًا، فستقوم الكاميرات بتنبيه مكتب المقاطعة ومراكز الشرطة القريبة لإرسال أفراد إلى الموقع.

 

ويخطط معهد سوشو Seocho فى العاصمة الكورية الجنوبية ومعهد أبحاث الإلكترونيات والاتصالات ERTI لتحليل 20 ألف وثيقة حكم صادرة عن المحكمة ولقطات الجريمة لاستنتاج أنماط الجريمة من أجل تزويد برنامج الذكاء الاصطناعى بها وحفظها، وستكون الكاميرات قادرة على مقارنة ما إذا كان ما يتم تصويره فى الوقت الحاضر يطابق أنماط الجريمة السابقة.

 

وفى ذات السياق، طور علماء من جامعة شيكاغو في الولايات المتحدة الأمريكية نظاما جديدا للذكاء الاصطناعي قالوا إنه قادر على توقع الجرائم بشكل صحيح قبل وقوعها واختبروه في ثماني مدن أمريكية بالفعل، وخلال الأعوام القليلة الماضية، ازداد اعتماد الشرطة حول العالم على تقنيات الذكاء الاصطناعي، مثل التعرف على الوجوه، أملا في تقليل معدلات الجريمة وتوفير إمكانات أفضل من أجل تسريع إلقاء القبض على المجرمين والمشتبه بهم.

 

وفوجئ الفريق بأن نموذج الذكاء الاصطناعي توقع احتمالية حدوث جرائم معينة في جميع أنحاء المدينة، قبل أسبوع من وقوعها بدقة تصل إلى 90%. كما تم تدريبه واختباره على بيانات 7 مدن أمريكية أخرى، ليتفاجأ العلماء بمستوى مماثل من الأداء.

 

هذا الخبر منقول من اليوم السابع