الرئيسية » الدراسات » الاستقطاب الاجتماعي والسياسي عبر شبكات التواصل الاجتماعي، باستخدام خوارزميات الذكاء الاصطناعي

الاستقطاب الاجتماعي والسياسي عبر شبكات التواصل الاجتماعي، باستخدام خوارزميات الذكاء الاصطناعي

بواسطة :

وعندما ظهرت شبكات التواصل الاجتماعي أصبحت عملية الاستقطاب سريعة ومؤثرة؛ نظرا لأنها أصبحت تعتمد على أسرع الأدوات تأثير وانتشارا في عصرنا الحالي. ومع سرعة المتغيرات السياسية سواء على المستوى الداخلي أو الخارجي، برزت أهمية هذه الشبكات في التأثير على الاتجاهات السياسية، وفي بناء رأي عام معين، أو ترسيخ قيم ومفاهيم معينة، فأصبح مهما فهم كيفية استخدام هذه الشبكات وتأثيرها، ومن ثم العمل على تعزيز الاستخدام الإيجابي لها والحد من آثارها السلبية على المُجتمعات العربية، خاصة بعد احترفت الجماعات الإرهابية في استخدامها على نحو يهدد الأمن والاستقرار فيها.
ثم شهدت شبكات التواصل الاجتماعي تطورا نوعيا على مستوى التأثير والاستقطاب الاجتماعي والسياسي، بعد أن استخدمت تقنيات الذكاء الاصطناعي، حتى أصبحت أمضى وقعا وأكثر تأثيرا في بناء اتجاهات الرأي العام وترسيخ مفاهيم وقيم سياسية واجتماعية مدروسة لديه. بل أصبح لها القدرة على التأثير على متخذي القرار عبر حشد وتوجيه الرأي العام. وهنا برزت مخاطر استخدام هذه التقنيات الذكاء أداة لتنظيم وتوجيه الرأي العام في قضايا سياسية ومجتمعية معينة، دون أن يكون يحكمها تنظيم قانوني، أو دستوري يحمي المستخدم من مخاطرها. وهو الأمر الذي أتاح لمن يمتلك هذه التقنيات استخدامها في خلق الاضطرابات في أي مجتمع، أو التأثير حتى على اتجاهات الناخبين، أو تهديد الاستقرار الاجتماعي والسياسي للدول المستهدفة.
لقد بات الجميع يعلم أن التقنيات الرقمية تستخدم غالبًا في التلاعب بالرأي العام، من حيث نشر المعلومات المضللة والحض على الكراهية والتحريض على العنف، من خلال خداع خوارزميات بعض شبكات التواصل، بما في ذلك استخدام الروبوتات والحسابات المزيفة. وقد ساهم ذلك على سبيل المثال في غرس الخوف بين الناس، بل ودفع أكثر الجماعات والحركات المناهضة للديمقراطية وأحزاب اليمين المتطرف للعمل على التأثير على الرأي العام سواء أثناء الانتخابات أو الاستفتاء.”[1]
خوارزميات الذكاء الاصطناعي:
تعمل خوارزميات الذكاء الاصطناعي (AI) في شبكات التواصل الاجتماعي على إعادة تشكيل التوجهات السياسية والانتخابية، إذ تتيح الخوارزميات المتطورة منها بشكل متزايد، والتي تبحث في مجموعات البيانات الضخمة للأحزاب السياسية والمرشحين والدول القومية، استهداف شرائح صغيرة ومختارة بعناية من المستخدمين، عبر إعلانات ورسائل مصممة وموجهة خصيصًا لها. على اعتبار أن هذه الشرائح عادة ما تكون أكثر عرضة لاستقبال هذه النوعية من الرسائل. وبالتالي تتعزز النزعات السياسية لديها.
أما الأكثر خطورة من ذلك، فهو أن هذه الخوارزميات توفر رؤى حول طرق تكييف هذه الرسالة للتأثير بشكل أكثر فاعلية على هؤلاء المستخدمين. كما يمكن لـ “الروبوتات” (الحسابات الآلية) على الإنترنت أن تنشر مثل هذه الرسائل، سواء كانت حقيقية أو زائفة إلى ملايين المستلمين عبر الإنترنت على الفور، وكلها معروفة فقط لمن يستقبلونها، وقد أصبحت هذه المنهجيات أكثر تعقيدًا، ولا يمكن اكتشافها مع تقدم الذكاء الاصطناعي نحو “التعلم العميق” (الذاتي للآلة) الذي يتسبب إلى حد كبير، في زيادة الاستقطاب السياسي، نظرا لأنه يوسع بسرعة كبيرة نطاق المتلقين للرسائل السياسية المصممة خصيصًا؛ لتعزيز ميولهم السياسية وتحييد وجهات نظرهم الأخرى.
وقد استخدمت خوارزميات الذكاء الاصطناعي، خلال السنوات السابقة، في أكثر من مكان في العالم. فاستخدمت في منطقتنا العربية، على سبيل المثال: تنظيم الدولة الإسلامية في العراق والشام (داعش) كما استخدمت أيضا في تصويت خروج بريطانيا من الاتحاد الأوروبي (البريكست) وفي انتخابات الرئاسة الأمريكية، التي أجريت عام 2016م، والانتخابات الفرنسية، عام 2017م، ناهيك عن أن الاحتلال الاسرائيلي جعلها ضمن استخداماته المختلفة، أثناء حرب الإبادة التي تشنها على قطاع غزة.
ولهذا، تعد دولنا العربية عرضة لمخاطر كبيرة، في ظل تفاقم الانقسامات السياسية وتحولها الى انقسامات مجتمعية، عبر زيادة الاستقطاب السياسي. للدرجة التي أصبحت فيها لغة التخوين ومصطلحات الكراهية أحد أوجه المناقشات حول المواضيع السياسية. وتحولت شبكات التواصل الاجتماعي ساحة لمثل هذه المناقشات. وهنا يتعين علينا أن نشير إلى مخاطر استخدام الخوارزميات في زيادة وتأجيج الاستقطاب السياسي داخل مجتمعاتنا العربية.
توظيف الخوارزميات في الاستقطاب:
كشفت دراسة أجراها فريق من الباحثين، على رأسه ‹فيرينك هسزر› (Ferenc Huszr) و‹صوفيا إيرا كتينا› (Sofia Ira Ktena) بعنوان ‹تضخيم الخوارزميات (التفضيلات) للسياسة على شبكة تويتر› أن شبكة تويتر استخدمت الخوارزميات في تضخيم تغريدات اليمين السياسي واعطائها أفضلية، مقارنة باليسار السياسي. وذلك بعد قام هذا الفريق بدراسة تغريدات نواب منتخبين من الأحزاب السياسية في سبع دول. وقد تبين له أن هناك اتجاها ثابتا بشكل ملحوظ في ستة من أصل سبع بلدان. وقد استندت هذه الدراسة إلى تقديم دليل كمي عبر مراقبة عشوائية لحوالي مليوني نشاط يوميا، كما أكدت أن الخوارزمية المستخدمة تفضل تضخيم مصادر الأخبار ذات الاتجاهات اليمينية في الاعلام الامريكي. وأن ثمة أسباب محتملة لهذا التحيز:
أولا: بيانات التدريب: قد تكون البيانات المستخدمة لتدريب الخوارزميات متحيزة، مما أدى إلى ظهور تحيزات في النتائج.
ثانيا: تصميم الخوارزميات: قد يكون هناك تحيز متعمد، أو غير متعمد في تصميم الخوارزميات لصالح محتوى معين
ثالثا: سلوك المستخدم: قد يسهم سلوك المستخدم نفسه في تعزيز هذا التحيز، من خلال التفاعل بشكل أكبر مع المحتوى الذي يتفق مع آرائه.
“قد ينتشر المحتوى الضار أو المضلل بسرعة كبيرة”[2]
في أبريل 2019، اقترح أحد علماء البيانات في فيسبوك تقليل مقدار إعادة مشاركة المحتوى من قبل أشخاص ليسوا أصدقاء أو متابعين لمنشئ المنشور الأصلي، وفقًا لمذكرة داخلية للشركة.
وكتب الباحث: “في حين أن منصة فيسبوك تمنح الناس الفرصة للتواصل والمشاركة والمشاركة، فإن التأثير الجانبي المؤسف هو أن المحتوى الضار أو المضلل يمكن أن ينتشر بسرعة، غالبًا قبل أن نتغلب عليه ونتمكن من تقليل التأثير”. “يخبرنا الناشطون السياسيون وناشرو المواقع الإخبارية أنهم يعتمدون بشكل أساسي على المحتوى السلبي والإثارة عندما يكتبون منشورات لأن التغييرات الأخيرة التي تم إجراؤها على الخوارزمية تمنحهم الأولوية”.
وكتب باحثان في فيسبوك في مقال داخلي: “يقدر فريق إدارة الشبكات الاجتماعية التابعة لأحد الطرفين أنهم نقلوا النسبة في منشوراتهم من 50/50 إيجابية مقابل سلبية إلى 80% من المشاركات السلبية، وذلك بشكل صريح نتيجة للتغيير في الخوارزمية”. تقرير من أبريل 2019.
مسؤولية شبكات التواصل الاجتماعي
تناولت دراسة أجراها ‹اورليك ريساتش› (Ulrike Reisach) بعنوان ‹مسؤولية وسائل التواصل الاجتماعي في أوقات التلاعب المجتمعي والسياسي› [3] التهديدات التي تواجه عمليات صنع القرار الديمقراطي، وكيف يمكن لمنصات التواصل الاجتماعي أن تسهم في مواجهة تلك التحديات. وقد خلصت هذه الدراسة إلى أن التحليل والتجميع والتتبع والتنميط والتنبؤ والتوصيات هي أهم أدوات اتخاذ القرار. وهذا يمكن إجراؤه من خلال خوارزميات ذاتية التعلم، على نحو يؤثر على طبيعة القرارات المتخذة. وقد يؤدي هذا إلى استخدام الذكاء الاصطناعي (بشكل خاطئ) كأداة من خلال تصفية المعلومات المستهدفة (الخاطئة) أو التلاعب بها. ويتضاعف هذا الاستخدام الخطر؛ بسبب استخدام الروبوتات الاجتماعية والتأثيرات الفيروسية، وهو ما يجعل المسؤولية الاجتماعية تمتد إلى الشركات التي تستخدم فيها خدمات وسائل التواصل الاجتماعي وتدر عائدات عليها، ويلقي على الأجيال القادمة مسئولية توجيه جهود البحث التقنية والأخلاقية والمجتمعية وتجميعها، والمساعدة في التحوط من مخاطرها، وجني فوائد استخدام شبكات التواصل الاجتماعي والذكاء الاصطناعي.
وفي هذا الإطار وضعت أيضا ‹إميليو فيرارا› (EMILIO FERRARA)[4] دراسة بعنوان: ‹التضليل الإعلامي والذكاء الاصطناعي في شبكات التواصل الاجتماعي المستخدمة في الانتخابات الفرنسية 2017› قدمت فيها تحليلًا إحصائيًا مكثفًا لحملة تضليل ‹ماكرون ليكس› التي حدثت في الفترة السابقة على الانتخابات الرئاسية الفرنسية لعام 2017م، باستخدام مزيج من أحدث الآلات وتقنيات التعلم والاستدلال المعرفي لاكتشاف الروبوتات، جنبًا إلى جنب مع الرؤى المستندة إلى البيانات.
 وبالنظر إلى إعادة بناء الأحداث فور وقوعها، اكتشفت هذه الدراسة بعض خصائص حملة التضليل الإعلامي ومحركاتها الرئيسية والجمهور البشري، وقامت بمقارنة هذه النتائج مع محادثة عامة متعلقة بالانتخابات، لاستخدامها كخط أساس لتحديد الاختلافات والشذوذ. ومن ثم سلطت الضوء على بعض الظواهر المثيرة للاهتمام، منها: أن هناك سوقا سوداء لروبوتات الذكاء الاصطناعي، سمحت باستخدام نفس الروبوتات المستخدمة في انتخابات 2016 الامريكية، التي ساندت اليمين خلال الفترة السابقة على الانتخابات الرئاسية الفرنسية لعام 2017.
كما كشفت عن أسباب عدم نجاح الحملة في التأثير على نتيجة التصويت الفرنسي، وان أكثرية جمهور حملة ماكرون ليكس كان مجتمع اليمين البديل الأمريكي الناطق باللغة الإنجليزية من المستخدمين الفرنسيين؛ في تناقض صارخ مع الخط الأساسي للمحادثات العامة، التي تضمنت بشكل منهجي ملحوظ المستخدمين الفرنسيين (وبالتالي، الناخبين الفرنسيين المحتملين)، مما أظهر بوضوح الاتجاه لصالح دعم الرئيس الحالي إيمانويل ماكرون. وبناء على هذا أكدت هذه الدراسة على ضرورة التركيز في المستقبل، على دراسة أوجه التشابه والاختلاف في سياق السياسة الحسابية لظواهر الدعاية، مع التركيز على مجموعة متنوعة من الانتخابات والأحداث المعاصرة ذات الصلة بالسياسة؛ بغرض فهم كيف يمكن التلاعب بها عبر منصات التواصل الاجتماعي عبر الإنترنت، وضرورة الوقوف على نوعية العواقب القابلة للقياس الكمي لمثل هذه المحاولات.
دور الروبوتات الاجتماعية
في سياق دراسة الخوارزميات وتأثيراتها في الانتخابات ذكرت دراسة ‹اليساندرو بيسي› (Allessandro Bessi) و‹ايميليو فيرارا‹ (EMILIO FERRARA) [5] بعنوان: الروبوتات الاجتماعية ضللت نقاشات الانترنت الخاصة بالانتخابات الأمريكية 2016م، المخاطر المرتبطة بإساءة استخدام هذه المنصات. كالتلاعب بالمعلومات ونشر معلومات مضللة ومعلومات لم يتم التحقق منها، خاصة أنها ركزت على دور وتأثيرات برامج الروبوت الاجتماعية والحسابات التلقائية، التي يتم استخدامها في التلاعب بالمحادثات عبر الإنترنت. كما ركزت على الروبوتات التي تم استخدامها على نطاق واسع ونشط في المناقشات السياسية عبر الإنترنت حول الانتخابات الرئاسية الأمريكية لعام 2016.
تابعت هذه الدراسة عينة من التغريدات المنشورة، خلال الفترة بين 16 سبتمبر و21 أكتوبر 2016م، فيما يتعلق بالانتخابات، أكثر من عشرين مليون تغريدة، تم إنشاؤها بواسطة ما يقرب من 2.8 مليون مستخدم متميز. واستخدمت القائمين على الدراسة Twitter Search API، واستنتجت أن وجود الروبوتات الاجتماعية في المناقشات السياسية عبر الإنترنت يؤسس لثلاث قضايا ملموسة، يمكن أن يكون لها تأثير لأغراض ضارة، وأن السياسية يمكن أن تصبح أكثر استقطابًا. كما أن نشر المعلومات المضللة والمعلومات غير المؤكدة يؤدي إلى تحقيق هذه الاغراض الضارة وزيادة الاستقطاب.
ومن ثم، اوصت بضرورة دراسة كيفية تطور سلوك الروبوتات بمرور الوقت للتكيف مع الزيادة البشرية، واكتساب القدرة على التعرف عليهم، وكذلك أهمية دراسة قدرة البشر على التعرف على روبوتات وسائل التواصل الاجتماعي في المستقبل. كما أوصت بتطوير تقنيات كشف أكثر تعقيدًا قادرة على الكشف عن المشغلين.
وتثير هذه الخوارزميات المخاوف بشأن دورها في تعزيز الاستقطاب السياسي والاجتماعي، وذلك لأسباب عدة:
فقاعات الفلترة: تميل الخوارزميات إلى عرض محتوى يتوافق مع آراء المستخدم السابقة، مما يعزز من “فقاعات الفلترة” التي تحصر المستخدمين في بيئات معلوماتية متجانسة.
تضخيم الآراء المتطرفة: قد تؤدي الخوارزميات إلى تضخيم تأثير الآراء المتطرفة، حيث يتم عرض المحتوى الذي يثير الجدل بشكل متكرر، مما يزيد من انقسام الرأي العام.
التلاعب بالمشاعر: يمكن للخوارزميات استغلال العواطف البشرية لتوجيه المستخدمين نحو آراء معينة، وذلك من خلال عرض محتوى مثير للجدل أو يثير المشاعر.
ولعل تطور الإعلام الرقمي واستخدامه للذكاء الاصطناعي، بدءا من غرف الاخبار وصولا إلى المتلقي، يوضح لنا حجم التهديدات المحتملة التي يمثلها الإعلام الرقمي، من حيث تجاوزه أخلاقيات وأسس الإعلام. وهو الأمر الذي يحتم علينا دراسة كيفية التعامل مع هذه المخاطر، التي أصبحت تؤثر بشكل كبير على اتخاذ القرار لدى المتلقي، بعد أن تجاوز المفهوم الاستهلاكي إلى نطاق التأثير السياسي على نحو يشكل خطرا على التماسك المجتمعي، ويدفع إلى الانقسام السياسي، الذي سرعان ما يمكن أن يتحول الى انقسام مجتمعي يؤثر على استقرار الدول، إذا لم يتم تداركه.
 
 
 
أبرز التهديدات الناجمة عن استخدام الذكاء الاصطناعي والتزييف:
انتشار الأخبار المزيفة: يمكن للذكاء الاصطناعي توليد كميات هائلة من الأخبار المزيفة والمحتوى المضلّل بسرعة وسهولة، مما يجعل من الصعب تمييز الحقيقة من الزيف.
التزييف العميق: يتيح الذكاء الاصطناعي إنشاء مقاطع فيديو وصور واقعية للغاية لشخصيات معروفة تقول أو تفعل أشياء لم تحدث بالفعل، مما يمكن استخدامه لتشويه سمعة الأفراد والمؤسسات
التلاعب بالرأي العام: يمكن استخدام الذكاء الاصطناعي والتزييف للتلاعب بالرأي العام والتأثير على نتائج الانتخابات والتحريض على العنف.
تقويض الثقة في المؤسسات: يؤدي انتشار الأخبار المزيفة والتزييف إلى تقويض الثقة في المؤسسات الحكومية والإعلامية، مما يزيد من الانقسامات الاجتماعية
تهديد الأمن القومي: يمكن استغلال الذكاء الاصطناعي والتزييف في شن هجمات إلكترونية وتنفيذ عمليات تخريب.
تأثير هذه التهديدات على الاستقرار الاجتماعي والسياسي:
زيادة التطرف والعنف: يمكن للأخبار المزيفة والتزييف التحريض على العنف والتطرف، وتقويض النسيج الاجتماعي.
تقويض الديمقراطية: يمكن للتلاعب بالرأي العام والتأثير على نتائج الانتخابات أن يقوض الأسس الديمقراطية للمجتمع.
تدهور الاقتصاد: يمكن للأخبار المزيفة والتزييف أن تسبب اضطرابات اقتصادية من خلال التأثير على أسواق المال والثقة في الاستثمارات.
صعوبة الحفاظ على الأمن: يجعل انتشار الأخبار المزيفة والتزييف من الصعب على الحكومات الحفاظ على الأمن والاستقرار.
اليات مواجهة هذه التهديدات:
لمواجهة هذه التهديدات، يجب اتخاذ مجموعة من الإجراءات، منها
تعزيز الوعي: يجب توعية الجمهور بخطورة الأخبار المزيفة والتزييف، وكيفية تمييزها عن الحقيقة.
تنظيم استخدام الذكاء الاصطناعي: يجب سن قوانين وتشريعات تنظم استخدام الذكاء الاصطناعي، وتمنع استخدامه في الأغراض الضارة.
تعزيز الشفافية: على المؤسسات الإعلامية والشركات التكنولوجية تعزيز الشفافية في أعمالها، وكشف مصادر المعلومات.
التعاون الدولي: يجب تعزيز التعاون الدولي لمواجهة التهديدات التي يشكلها الذكاء الاصطناعي والتزييف
تطوير أدوات الكشف: يجب تطوير أدوات تكنولوجية قادرة على الكشف عن الأخبار المزيفة والتزييف.
 
 
 
 
 
 
 
أبرز استخدامات خوارزميات الذكاء الاصطناعي في تقويض الاستقرار السياسي والاجتماعي في المنطقة العربية:
تعد وسائل التواصل الاجتماعي ساحة حيوية للتفاعل والتعبير عن الرأي، ولكنها أصبحت أيضًا ساحة للصراع والتلاعب، حيث تستغلها الجماعات الإرهابية للتأثير على الرأي العام وتعزيز أجنداتها المتطرفة. وقد أدى التطور المتسارع في مجال الذكاء الاصطناعي إلى منح هذه الجماعات أدوات جديدة وقوية للتلاعب بالرأي العام ونشر الكراهية والعنف.
ربما كان من الملفت للانتباه ما فعله التنظيم الإرهابي داعش وتبعه العديد من التنظيمات الإرهابية في سرعة مواكبة وترتيب المنصات الخاصة به على وسائل التواصل الاجتماعي لدعم أفكاره وتجنيد المتطوعين عبر العالم وبث دعايته بأحدث الطرق وتجاوز المنع والحجب.
كيف تستغل الجماعات الإرهابية الذكاء الاصطناعي؟
تُعد الجماعات الإرهابية من أبرز المستفيدين من التطورات التكنولوجية السريعة، خاصة في مجال الذكاء الاصطناعي. فبفضل هذا التطور، أصبحت هذه الجماعات قادرة على نشر خطابها بشكل أوسع وأعمق، والتأثير على الرأي العام بطرق أكثر فعالية:
توليد صور وفيديوهات واقعية بشكل مخادع، مما يسمح للجماعات الإرهابية بنشر معلومات مضللة والتلاعب بالرأي العام.
نشر الأخبار الكاذبة: يمكن لخوارزميات الذكاء الاصطناعي أن تنتج كميات هائلة من الأخبار الكاذبة والشائعات بسرعة كبيرة، مما يؤدي إلى زيادة الاستقطاب والانقسام المجتمعي
استهداف الأفراد: تحليل البيانات الشخصية للأفراد لتحديد من هم أكثر عرضة للتطرف، ثم استهدافهم برسائل مخصصة وموجهة.
تضخيم الرسائل: من خلال نشرها على نطاق واسع وتكرارها بشكل متكرر
إنشاء حسابات وهمية: إنشاء حسابات وهمية على نطاق واسع للتفاعل مع المحتوى المتطرف وتعزيزه.
تمويل الإرهاب
لعل احد اخطر ما نتج عن استخدامات الذكاء الاصطناعي هو خلق مسارات لتمويل الإرهاب عبر العملات المشفرة
(البيتكوين ) ولعل ما أعلنت عنه وزارة العدل الامريكية عن تجميد 150 حسابا مشفرا لدى منصة بيتوك (BITOK  ) قامت بنقل 40 مليون دولار أمريكي من ايران لجماعات مرتبطة بها يعطي تصورا على حجم الأموال التي يتم نقلها الى الجماعات الإرهابية من خلال العملات المشفرة دون اكتشافها حيث استخدمت تقنيات الذكاء الاصطناعي لخلق ملفات وهمية لاصحاب الحسابات المشفرة يصعب تتبعها او اكتشافها.
آليات المواجهة المقترحة
أصبح من الضروري أن تتخذ الحكومات إجراءات حاسمة لمواجهة التهديدات الناتجة عن استخدام الذكاء الاصطناعي، والتي أصبحت تشكل تحديًا كبيرًا لمجتمعات العربية. وذلك من خلال تضافر الجهود المشتركة بين الحكومات والشركات والمجتمع المدني. ومع هذا نوصي بما يلي:
  1. سن قوانين وتشريعات تحد من إساءة استخدام الذكاء الاصطناعي، وتفرض عقوبات رادعة على من يستخدمونه لأغراض إرهابية. على أن تغطي جوانب مثل حماية البيانات الشخصية، ومكافحة الأخبار الكاذبة والشائعات، وتنظيم المحتوى على الإنترنت وحظر تمويل الإرهاب عبر الإنترنت
  2. دعم البحوث في مجال الذكاء الاصطناعي لتطوير أدوات وأنظمة قادرة على الكشف عن المحتوى الإرهابي والمعلومات المضللة، وكذلك تطوير تقنيات جديدة لمواجهة التهديدات الناشئة
  3. العمل مع منصات التواصل الاجتماعي لتطوير أدوات أكثر فعالية للكشف عن المحتوى الإرهابي وحذفه (استلهام تجربة الاتحاد الأوروبي التي اخضعت الشركات المالكة لمنصات التواصل الاجتماعي بالالتزام بمعايير وضعها الاتحاد الأوروبي للسيطرة على خروقات تتعلق بالتاثير على السلم المجتمعي والامن لهذه الدول ) .
  4. ونظرًا للطبيعة العابرة للحدود للإنترنت والإرهاب، يجب على الحكومات التعاون على المستوى الدولي لتبادل المعلومات والاستخبارات، وتنسيق الجهود لمكافحة هذا التهديد.
  5. بناء نموذج ذكاء اصطناعي يطبق في فترة تاريخية محددة على منطقة عربية للوصول الى ارقام دقيقة حول الخوارزميات المستخدمة واليات عملها بالإضافة الى الربوتات بشكل يشبه دراسة فيرارا بحيث يمكن وضع الخطط بناء على معلومات دقيقة .

1win 1win giriş 1win 1win giriş mostbet mostbet giriş mostbet giriş Mostbet 1win