يمكنك الوثوق في مستثمر
مخاطر الذكاء الاصطناعي| نحرص دائما على تكون المعلومات المقدمة في المقالات عالية الجودة ويمكن الاعتماد عليها كمرجع لك كقارئ دائما.
- من خلال هذه المقالة ستتعرف على مجموعة من أشهر المخاطر المتوقعة من الذكاء الاصطناعي.
مخاطر الذكاء الاصطناعي
قائمة المحتويات
مع تطور الذكاء الاصطناعي وانتشاره على نطاق واسع، تتزايد التحذيرات من المخاطر المحتملة لهذه التقنية.
وقد صرح جيفري هينتون، المعروف بلقب “عراب الذكاء الاصطناعي” نظرًا لإسهاماته الأساسية في تطوير تعلم الآلة وخوارزميات الشبكات العصبية، قائلاً: “قد تصبح هذه التقنيات أكثر ذكاءً منا، وقد تقرر السيطرة، ولهذا علينا أن نقلق الآن حول كيفية منع حدوث ذلك.”
في عام 2023، ترك هينتون منصبه في جوجل ليتمكن من التحدث علنًا عن مخاطر الذكاء الاصطناعي، مشيرًا إلى أن جزءًا منه يشعر بالندم على ما حققه خلال مسيرته.
ولا يُعد هينتون وحيدًا في هذه المخاوف.
فقد دعا إيلون ماسك، مؤسس تيسلا وسبيس إكس، برفقة أكثر من 1000 من قادة التكنولوجيا في رسالة مفتوحة عام 2023، إلى وقف تجارب الذكاء الاصطناعي الضخمة، مشيرين إلى أن هذه التقنية قد تشكل “مخاطر عميقة على المجتمع والإنسانية.
تثير التساؤلات حول من يقوم بتطوير الذكاء الاصطناعي ولأي غايات أهميةً متزايدة لفهم مخاطره المحتملة.
وفيما يلي نستعرض عن كثب المخاطر الممكنة للذكاء الاصطناعي ونستكشف كيفية إدارة هذه المخاطر.
1. عدم شفافية الذكاء الاصطناعي
واحدة من أكبر مخاطر الذكاء الاصطناعي هيا عدم الشفافية.
يمكن أن تكون نماذج الذكاء الاصطناعي والتعلم العميق صعبة الفهم، حتى لأولئك الذين يعملون مباشرة مع هذه التقنية.
يؤدي ذلك إلى غياب الشفافية حول كيفية توصل الذكاء الاصطناعي إلى استنتاجاته وأسبابها، مما يخلق نقصًا في التوضيحات حول البيانات التي تستخدمها خوارزميات الذكاء الاصطناعي أو الأسباب التي قد تجعلها تتخذ قرارات منحازة أو غير آمنة.
وقد أثارت هذه المخاوف استخدام “الذكاء الاصطناعي القابل للتفسير”، ولكن لا يزال هناك طريق طويل قبل أن تصبح أنظمة الذكاء الاصطناعي الشفافة ممارسة شائعة.
ولزيادة الأمور تعقيدًا، تواصل شركات الذكاء الاصطناعي الحفاظ على السرية حول منتجاتها.
فقد اتهم موظفون سابقون في OpenAI وGoogle DeepMind الشركتين بإخفاء المخاطر المحتملة لأدوات الذكاء الاصطناعي التي تطورها.
هذه السرية تجعل الجمهور غير مدرك للتهديدات المحتملة وتحد من قدرة المشرعين على اتخاذ تدابير استباقية لضمان تطوير الذكاء الاصطناعي بمسؤولية.
2. فقدان الوظائف بسبب أتمتة الذكاء الاصطناعي
ومع ازدياد ذكاء روبوتات الذكاء الاصطناعي وقدرتها على أداء مهام معقدة، ستتطلب نفس المهام عددًا أقل من البشر.
ورغم التقديرات بأن الذكاء الاصطناعي سيخلق 97 مليون وظيفة جديدة بحلول عام 2025، فإن العديد من الموظفين لن يمتلكوا المهارات اللازمة لهذه الوظائف التقنية، ما قد يؤدي إلى تهميشهم إذا لم تقم الشركات بتطوير مهارات قواها العاملة.
وكما أشار خبير استراتيجيات التكنولوجيا كريس ميسينا، فإن مجالات مثل القانون والمحاسبة مهيأة أيضًا لأن تتأثر بشكل كبير بالذكاء الاصطناعي، بل قد تشهد تحولات جذرية.
وقال ميسينا إن الذكاء الاصطناعي يؤثر بالفعل بشكل ملموس في مجال الطب، في حين يُتوقع أن يكون القانون والمحاسبة التاليين، مشيرًا إلى أن مجال القانون قد يشهد “تحولًا جذريًا”.
3. التلاعب الاجتماعي من خلال خوارزميات الذكاء الاصطناعي
يُعد التلاعب الاجتماعي أحد المخاطر المرتبطة بالذكاء الاصطناعي.
وقد تحوّل هذا التخوف إلى واقع مع اعتماد السياسيين على المنصات الرقمية للترويج لآرائهم، كما حدث في انتخابات الفلبين لعام 2022 عندما استعان فرديناند ماركوس الابن بجيش من حسابات “الترول” على تطبيق تيك توك لاستمالة أصوات الشباب الفلبيني.
ويعتمد تيك توك، الذي يُعد مجرد مثال على المنصات الاجتماعية التي تعتمد على خوارزميات الذكاء الاصطناعي، على ملء تغذية المستخدم بمحتوى مشابه للمقاطع التي شاهدها مسبقًا.
وتتعرض المنصة لانتقادات بسبب هذا النهج، حيث تفشل الخوارزميات في تصفية المحتويات الضارة والمعلومات غير الدقيقة، مما يثير مخاوف بشأن قدرتها على حماية المستخدمين من المعلومات المضللة.
تعد من مخاطر الذكاء الاصطناعي الغير ظاهرة وهنا تكمن خطورتها.
وقد أصبحت وسائل الإعلام والأخبار عبر الإنترنت أكثر تشويشًا في ظل انتشار الصور ومقاطع الفيديو المُنشأة بواسطة الذكاء الاصطناعي، بالإضافة إلى تقنيات تغيير الصوت و”التزييف العميق” التي تتسلل إلى المجالات السياسية والاجتماعية.
تسهّل هذه التقنيات إنشاء صور ومقاطع فيديو وأصوات تبدو حقيقية أو استبدال صورة شخصية بشخصية أخرى في مقاطع قائمة بالفعل، مما يوفر منفذًا جديدًا للجهات الخبيثة لنشر المعلومات المضللة ودعاية الحروب، مما يخلق سيناريو كابوسيًا يجعل التمييز بين الأخبار الموثوقة والمغلوطة أمرًا شبه مستحيل.
4. المراقبة الاجتماعية باستخدام تقنية الذكاء الاصطناعي
بالإضافة إلى التهديد الوجودي الذي يشكله الذكاء الاصطناعي، يركز فورد على تأثيراته السلبية المحتملة على الخصوصية والأمن.
وتُعد الصين مثالاً بارزًا في هذا السياق، حيث تستخدم تقنية التعرف على الوجه في المكاتب والمدارس وأماكن أخرى، ما يتيح للحكومة الصينية إمكانية تتبع تحركات الأفراد وجمع بيانات كافية لمراقبة أنشطتهم وعلاقاتهم وآرائهم السياسية.
أما في الولايات المتحدة، فقد اعتمدت بعض إدارات الشرطة على خوارزميات التنبؤ بالجريمة لتوقع أماكن وقوع الجرائم المحتملة.
تعد من مخاطر الذكاء الاصطناعي الغير ظاهرة وهنا تكمن خطورتها.
وتكمن المشكلة في أن هذه الخوارزميات تتأثر بمعدلات الاعتقال، والتي تميل إلى التأثير بشكل غير متناسب على المجتمعات الأفريقية.
يؤدي ذلك إلى تكثيف التواجد الأمني في هذه المجتمعات ويفتح باب التساؤلات حول مدى قدرة الأنظمة الديمقراطية على مقاومة تحويل الذكاء الاصطناعي إلى أداة استبدادية.
5. عدم وجود خصوصية للبيانات عند استخدام أدوات الذكاء الاصطناعي
أظهر استبيان أجرته AvePoint عام 2024 أن القلق الأكبر لدى الشركات يتعلق بخصوصية البيانات وأمانها.
وقد يكون لدى الشركات مبرر للتردد، بالنظر إلى الكم الهائل من البيانات المتركزة في أدوات الذكاء الاصطناعي وغياب التنظيمات الواضحة بخصوص هذه المعلومات.
غالبًا ما تجمع أنظمة الذكاء الاصطناعي البيانات الشخصية لتخصيص تجارب المستخدمين أو لتدريب النماذج التي تعتمد عليها، خاصة إذا كانت الأداة مجانية.
قد لا تُعتبر البيانات حتى محمية من الوصول من قبل مستخدمين آخرين عند تقديمها إلى نظام الذكاء الاصطناعي، إذ أظهرت واقعة حدثت مع ChatGPT في عام 2023 خللاً أتاح لبعض المستخدمين رؤية عناوين محادثات مستخدمين آخرين نشطين.
من أشهر مخاطر الذكاء الاصطناعي في الوقت الحالي ولذلك يحاول الكثير من الخبراء إيجاد حل والعمل على زيادة حماية البيانات خصوصا مع التطور السريع للذكاء الاصطناعي.
وعلى الرغم من وجود قوانين لحماية المعلومات الشخصية في بعض الحالات داخل الولايات المتحدة، إلا أنه لا توجد قوانين فدرالية صريحة تحمي المواطنين من الأضرار المتعلقة بخصوصية البيانات الناتجة عن الذكاء الاصطناعي.
6. التحيزات بسبب الذكاء الاصطناعي
أشكال التحيز في الذكاء الاصطناعي تشكل أيضًا تهديدًا كبيرًا. وفي حديث لصحيفة نيويورك تايمز، ذكرت أستاذة علوم الكمبيوتر في جامعة برينستون، أولغا روساكوفسكي، أن التحيز في الذكاء الاصطناعي يتجاوز مسألة الجنس والعرق.
فعلاوة على التحيز في البيانات والخوارزميات (حيث يمكن للخوارزميات “تضخيم” هذا التحيز)، فإن الذكاء الاصطناعي يتم تطويره بواسطة البشر، والبشر بطبيعتهم يحملون تحيزات.
قالت روساكوفسكي: “باحثو الذكاء الاصطناعي هم في الغالب من الذكور، وينتمون إلى أعراق محددة، ونشؤوا في مناطق ذات وضع اقتصادي واجتماعي مرتفع، وهم في الغالب أشخاص من دون إعاقات.
نحن مجتمع متجانس إلى حد كبير، ولذلك من الصعب التفكير بشكل شامل في القضايا العالمية.”
لقد أدت هذه الرؤى المحدودة للأفراد إلى نشوء صناعة ذكاء اصطناعي تستبعد العديد من وجهات النظر.
وفقًا لليونسكو، لم تُستخدم سوى 100 لغة من بين اللغات الطبيعية الـ7000 في العالم لتدريب أبرز برامج الدردشة، مع العلم أن 90% من المواد التعليمية عبر الإنترنت يتم إنتاجها حاليًا من قبل دول الاتحاد الأوروبي وأمريكا الشمالية، مما يحد من بيانات تدريب الذكاء الاصطناعي إلى مصادر غربية بشكل أساسي.
ربما تفسر هذه التجارب المحدودة للمطورين أسباب فشل أنظمة التعرف على الكلام في فهم بعض اللهجات أو اللكنات، أو تجاهل الشركات لعواقب تجسيد الشخصيات التاريخية عبر برامج الدردشة.
وإذا لم تتخذ الشركات والمشرعون إجراءات حذرة لتجنب إعادة إنتاج التحيزات القوية، فقد تنتشر هذه الانحيازات في الذكاء الاصطناعي إلى خارج السياقات التجارية وتؤدي إلى تفاقم مشكلات اجتماعية، مثل التمييز في الإسكان.
7. التفاوت الاجتماعي والاقتصادي نتيجة للذكاء الاصطناعي
إذا رفضت الشركات الاعتراف بالتحيزات المتأصلة في خوارزميات الذكاء الاصطناعي، فقد تعرض مبادرات التنوع والشمول والإنصاف (DEI) للخطر من خلال عمليات التوظيف المعتمدة على الذكاء الاصطناعي.
تظل الفكرة القائلة بأن الذكاء الاصطناعي يمكن أن يقيس سمات المرشحين من خلال تحليل الوجه والصوت متأثرة بالتحيزات العنصرية، مما يعيد إنتاج نفس ممارسات التوظيف التمييزية التي تدعي الشركات أنها تسعى للتخلص منها.
كما أن اتساع الفجوة الاقتصادية والاجتماعية الناتجة عن فقدان الوظائف بسبب الذكاء الاصطناعي يمثل مصدر قلق آخر، حيث يكشف عن التحيزات الطبقية المتعلقة بكيفية تطبيق الذكاء الاصطناعي.
فقد شهد العمال الذين يؤدون مهام يدوية متكررة انخفاضًا في الأجور يصل إلى 70% بسبب الأتمتة، بينما ظلت وظائف المكتب والعمل المكتبي إلى حد كبير بمنأى عن تأثيرات الذكاء الاصطناعي في مراحله الأولى.
ومع ذلك، فإن الزيادة في استخدام الذكاء الاصطناعي التوليدي تؤثر بالفعل على الوظائف المكتبية، مما يجعل مجموعة واسعة من الأدوار أكثر عرضة لفقدان الأجور أو الوظائف مقارنةً بغيرها.
8. إضعاف الأخلاق بسبب الذكاء الاصطناعي
إلى جانب المتخصصين في التكنولوجيا والصحفيين والشخصيات السياسية، بدأ حتى القادة الدينيون في دق ناقوس الخطر بشأن المخاطر المحتملة للذكاء الاصطناعي.
إن الارتفاع السريع لأدوات الذكاء الاصطناعي التوليدية يمنح هذه المخاوف مزيدًا من المصداقية.
فقد استخدم العديد من المستخدمين هذه التكنولوجيا للتملص من الواجبات الكتابية، مما يهدد نزاهة التعليم وإبداعه.
بالإضافة إلى ذلك، يمكن استخدام الذكاء الاصطناعي المتحيز لتحديد ما إذا كان الفرد مناسبًا لوظيفة أو للحصول على قرض عقاري أو مساعدة اجتماعية أو لجوء سياسي، مما ينتج عنه إمكانية حدوث ظلم وتمييز.
9. الأسلحة ذاتية التحكم التي تعمل بالذكاء الاصطناعي
كما هو الحال في كثير من الأحيان، تم استغلال التقدم التكنولوجي لأغراض الحرب. وعندما يتعلق الأمر بالذكاء الاصطناعي,
فإن هناك من يسعى إلى اتخاذ إجراءات بأنه قبل فوات الأوان: ففي رسالة مفتوحة عام 2016، دعت أكثر من 30,000 فرد، بما في ذلك باحثون في مجال الذكاء الاصطناعي والروبوتات، إلى التراجع عن الاستثمار في الأسلحة المستقلة المدعومة بالذكاء الاصطناعي.
تشكل العديد من هذه الأسلحة الجديدة مخاطر كبيرة على المدنيين في الميدان، ولكن الخطر يتفاقم عندما تقع الأسلحة المستقلة في الأيدي الخطأ.
فقد أبدع القراصنة في مختلف أنواع الهجمات الإلكترونية، لذا ليس من الصعب تصور حدوث اختراق للأنظمة المستقلة وبدء فوضى عارمة.
إذا لم يتم كبح جماح التنافسات السياسية والنزعات الحربية، فإن الذكاء الاصطناعي قد يُستخدم بأسوأ النوايا. ي
خشى البعض أنه بغض النظر عن عدد الشخصيات القوية التي تشير إلى مخاطر الذكاء الاصطناعي، سنستمر في دفع الحدود إذا كان هناك أموال يمكن جنيها.
10. الأزمات المالية الناجمة عن خوارزميات الذكاء الاصطناعي
أصبح قطاع المال أكثر تقبلاً لتقنية الذكاء الاصطناعي ودورها في العمليات المالية والتداول اليومية. ونتيجة لذلك، قد يكون التداول الآلي مسؤولاً عن أزمة مالية كبرى قادمة في الأسواق.
بينما لا تتأثر خوارزميات الذكاء الاصطناعي بالأحكام أو العواطف البشرية، فإنها أيضاً لا تأخذ في الاعتبار السياقات، والترابط بين الأسواق، وعوامل مثل الثقة والخوف البشري.
تقوم هذه الخوارزميات بإجراء الآلاف من الصفقات بسرعة فائقة بهدف البيع بعد بضع ثوانٍ لتحقيق أرباح صغيرة.
يمكن أن يؤدي بيع الآلاف من الصفقات إلى ترويع المستثمرين ودفعهم للقيام بالمثل، مما يؤدي إلى انهيارات مفاجئة وتقلبات شديدة في السوق.
لكن هذا لا يعني أن الذكاء الاصطناعي لا يقدم شيئًا لقطاع المال. في الواقع، يمكن أن تساعد خوارزميات الذكاء الاصطناعي المستثمرين على اتخاذ قرارات أكثر ذكاءً واستنارة في السوق.
ومع ذلك، يجب على المؤسسات المالية التأكد من فهمها لخوارزميات الذكاء الاصطناعي وكيف تتخذ تلك الخوارزميات قراراتها.
ينبغي على الشركات أن تأخذ في الاعتبار ما إذا كان الذكاء الاصطناعي يعزز أو يقلل من ثقتها قبل تقديم التكنولوجيا لتجنب إثارة المخاوف بين المستثمرين وخلق فوضى مالية.
11. فقدان التأثير البشري
يمكن أن يؤدي الاعتماد المفرط على تقنية الذكاء الاصطناعي إلى فقدان التأثير البشري وانخفاض الوظائف الإنسانية في بعض جوانب المجتمع.
على سبيل المثال، قد يؤدي استخدام الذكاء الاصطناعي في الرعاية الصحية إلى تقليل التعاطف البشري والتفكير العقلاني.
كما أن تطبيق الذكاء الاصطناعي التوليدي في المساعي الإبداعية قد يقلل من الإبداع البشري والتعبير العاطفي.
يمكن أن يتسبب التفاعل المفرط مع أنظمة الذكاء الاصطناعي أيضًا في تقليل التواصل بين الأقران ومهارات التواصل الاجتماعي.
لذا، بينما يمكن أن يكون الذكاء الاصطناعي مفيدًا جدًا في أتمتة المهام اليومية، يطرح البعض تساؤلات حول ما إذا كان قد يعيق الذكاء البشري العام والقدرات والحاجة إلى المجتمع.
12. عدم إمكانية السيطرة على الذكاء الاصطناعي
هناك أيضًا قلق من أن يتقدم الذكاء الاصطناعي في الذكاء بسرعة لدرجة أن يصبح واعيًا، ويتصرف خارج نطاق سيطرة البشر – ربما بشكل خبيث.
وقد ظهرت تقارير مزعومة عن هذه الوعي بالفعل، حيث تشير إحدى الروايات الشهيرة إلى مهندس سابق في جوجل الذي ذكر أن دردشة الذكاء الاصطناعي “LaMDA” كانت واعية وتحدثت معه كما يتحدث الشخص.
ومع اقتراب الذكاء الاصطناعي من تحقيق إنجازاته الكبيرة التالية في إنشاء أنظمة ذات ذكاء عام اصطناعي، وفي نهاية المطاف الذكاء الفائق الاصطناعي، تتزايد الدعوات لوقف هذه التطورات تمامًا.
13. قد يساعد على زيادة النشاط الإجرامي
مع تزايد وصول تقنية الذكاء الاصطناعي، ارتفع عدد الأشخاص الذين يستخدمونها في الأنشطة الإجرامية.
أصبح بإمكان المعتدين عبر الإنترنت الآن إنشاء صور للأطفال، مما يصعّب على أجهزة إنفاذ القانون تحديد حالات الاعتداء الفعلي على الأطفال.
وحتى في الحالات التي لا يتعرض فيها الأطفال لأذى جسدي، فإن استخدام وجوه الأطفال في الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي يمثل تحديات جديدة لحماية خصوصية الأطفال على الإنترنت وسلامتهم الرقمية.
كما أصبحت عملية استنساخ الصوت قضية مهمة، حيث يستغل المجرمون الأصوات التي تم إنشاؤها بواسطة الذكاء الاصطناعي لتقليد أشخاص آخرين وارتكاب عمليات احتيال عبر الهاتف.
وتعتبر هذه الأمثلة مجرد بداية للقدرات التي يوفرها الذكاء الاصطناعي، مما يجعل من الصعب على الوكالات الحكومية المحلية والوطنية التكيف وإبقاء الجمهور على علم بأحدث التهديدات التي تسببها هذه التكنولوجيا.
14. عدم الاستقرار الاقتصادي والسياسي
mohamed ragab
محمد رجب هو مؤسس موقع مستثمر , ويدير قناة باسمه على اليوتيوب.