علم الروبوتات

يمكن أن تسبب الروبوتات القاتلة فظائع جماعية

يمكن أن تسبب الروبوتات القاتلة فظائع جماعية


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

سيتم استخدام الروبوتات كجنود في المستقبل. في الواقع ، يتم بالفعل نشر بعض الروبوتات وكذلك الطائرات بدون طيار من قبل الجيش. يمكن للروبوتات الذكية والمستقلة التي يبرمجها البشر للاستهداف والقتل أن ترتكب جرائم في المستقبل. ما لم تكن هناك معاهدة لاستخدام الروبوتات والذكاء الاصطناعي (AI) بشكل مسؤول.

إن امتلاك التكنولوجيا التي يمكنها بناء الروبوتات التي تقتل المتاح لا يعني أننا يجب أن نستخدمها. كما قال عم سبايدرمان ذات مرة ، "مع القوة العظمى تأتي مسؤولية كبيرة".

يقول خبراء في التعلم الآلي والتكنولوجيا العسكرية إنه سيكون من الممكن تقنيًا بناء روبوتات تتخذ قرارات بشأن من يجب استهدافه وقتله دون إشراك وحدة تحكم بشرية. نظرًا لأن خوارزميات التعرف على الوجه واتخاذ القرار أصبحت أكثر قوة بشكل متزايد ، فإن تحقيق إنشاء مثل هذه الأنواع من الروبوتات سيكون أسهل.

مخاطر الروبوتات القاتلة

يحاول الباحثون في مجال الذكاء الاصطناعي والسياسة العامة إثبات أن الروبوتات القاتلة هي فكرة سيئة في الحياة الواقعية. قد يؤدي إنشاء أسلحة مستقلة تمامًا إلى معضلات تقنية وأخلاقية جديدة.

لهذا السبب ، دفع العلماء والنشطاء الأمم المتحدة وحكومات العالم للاعتراف بالمشكلة والنظر في فرض حظر استباقي.

هل يمكن استخدام الذكاء الاصطناعي كسلاح؟

الإجابة القصيرة هي نعم. تمامًا مثل أي تقنية أخرى موجودة ، يمكن استخدام الذكاء الاصطناعي للأبد ، ولكن أيضًا للقتل. التعرف على الوجوه والتعرف على الأشياء من التقنيات التي تحسنت خلال السنوات القليلة الماضية. يمكننا القول أنها أصبحت أكثر دقة إلى حد كبير ، ومع ذلك فهي بعيدة كل البعد عن الكمال.

يعد التعرف على الوجوه والتعرف على الأشياء من المهارات التي من المحتمل أن تصبح ضرورية كجزء من مجموعة أدوات للأسلحة الفتاكة المستقلة (LAWS). ومع ذلك ، من السهل أيضًا خداع هذه التقنيات ، إذا كان المرء يريد حقًا خداعها.

الروبوتات العسكرية: الحاضر والمستقبل

الروبوتات العسكرية هي روبوتات أو طائرات بدون طيار ذاتية التحكم يتم التحكم فيها عن بُعد ، وقد تم تصميمها للتطبيقات العسكرية. يمكن استخدام الروبوتات العسكرية في النقل والبحث والإنقاذ وأيضًا للهجوم ، مع ما ينطوي عليه ذلك من قتل البشر ، وحتى تدمير المدن.

يتم حاليًا نشر بعض هذه الأنظمة ، وبعضها الآخر قيد التطوير. يتم تطوير بعض الروبوتات العسكرية في سرية تامة من أجل منع الآخرين من التعرف على وجودها.

تقوم الولايات المتحدة بالفعل بتسيير طائرات عسكرية بدون طيار فوق المناطق التي تخوض فيها الولايات المتحدة حربًا أو تشارك فيها عمليات عسكرية. حتى الآن ، يقرر المراقبون البشريون متى ستطلق هذه الطائرات بدون طيار.

على الرغم من أن الأسلحة المستقلة الفتاكة (LAWS) ليست موجودة تمامًا حتى الآن - أو هذا ما نعتقده - فإن التكنولوجيا لاستبدال أجهزة التحكم البشرية بخوارزمية تتخذ قرارًا بشأن متى وماذا يتم إطلاق النار موجودة بالفعل. يعتقد بعض الباحثين في منظمة العفو الدولية أن منظومات الأسلحة الفتاكة ذاتية التشغيل ، التي تتخذ شكل طائرات صغيرة بدون طيار ، يمكن استخدامها كأسلحة في أقل من عامين.

بينما تنقل الطائرات بدون طيار اليوم تعليقات بالفيديو إلى قاعدة عسكرية ، حيث يتخذ جندي بشري قرارًا بشأن ما إذا كان ينبغي للطائرة بدون طيار إطلاق النار على الهدف أم لا ، باستخدام سلاح مستقل تمامًا ، لن يتخذ الجندي هذا القرار بعد الآن. ستتخذ الخوارزمية القرار بدلاً من ذلك.

الأسلحة الفتاكة ذاتية التشغيل (LAWS): هل البشر في خطر؟

إن عصر الحرب الآلية ليس بعيدًا جدًا في المستقبل. كان الجيش يجرب الروبوتات التي يمكن أن تكون جزءًا من ساحة المعركة وتستخدم كأسلحة قاتلة. يمكن بعد ذلك أن تكون حروب المستقبل مشبعة بتقنية عالية وأقل إنسانية. ما هي العواقب التي قد يجلبها هذا على البشرية؟

إن الخطر الذي تشكله الأسلحة الفتاكة المستقلة (LAWS) ، والمعروف أيضًا باسم الروبوتات القاتلة ، خطر حقيقي. لدى بعض باحثي الذكاء الاصطناعي (AI) الكثير من الأسباب لدعم إجماعهم على أن العالم يجب أن يحظر تطوير ونشر الأسلحة الفتاكة ذاتية التشغيل.

السبب بسيط للغاية ، يمكن للقوى العسكرية أن تنتج جيشًا من الروبوتات القاتلة بسعر رخيص جدًا. ومع ذلك ، يمكن للبشرية أن تدفع ثمنا باهظا. تصنيع وتفعيل الروبوتات القاتلة من شأنه أن يزيد من احتمالية الانتشار والقتل الجماعي.

الروبوتات القاتلة: الإنسان مسؤول دائمًا عن أي إجراء يتخذه الروبوت

في هذه المرحلة ، يطرح السؤال ، من يجب أن يكون مسؤولاً عن تصرفات الروبوت؟ وما هي أخلاقيات الروبوتات التي يجب تطبيقها على الروبوتات الفتاكة المستقلة؟ خلال الحرب ، أو حتى خلال نزاع أصغر يمكن أن تخرج الأمور عن السيطرة. هل يجب أن تتولى الروبوتات القاتلة السيطرة الكاملة؟

يجب أن تحتوي الروبوتات التي يُقصد استخدامها في نزاع حرب كأسلحة ميكانيكية مدمجة بالذكاء الاصطناعي والتعلم الآلي على مفتاح تشغيل / إيقاف من نوع ما.

اليوم ، تمثل قوانين الروبوتات الثلاثة لإيزاك أسيموف مشاكل وصراعًا أكبر من حلها لعلماء الروبوتات.

يرى علماء الروبوتات والفلاسفة والمهندسون نقاشًا مستمرًا حول أخلاقيات الآلة. أخلاقيات الآلة - أو أخلاقيات الروبوتات - عبارة عن اقتراح عملي حول كيفية هندسة وتقديم عقوبات أخلاقية للروبوتات في نفس الوقت.

تتعامل أخلاقيات الروبوت مع قواعد السلوك التي يجب على مهندسي المصممين الآليين تنفيذها في الذكاء الاصطناعي للروبوت. من أو ما الذي سيتحمل المسؤولية عندما أو إذا كان النظام المستقل يعطل أو يؤذي البشر؟

القوانين الثلاثة للروبوتات: هل ينبغي تطبيقها على الروبوتات القاتلة؟

في عام 1942 ، قدم كاتب الخيال العلمي إسحاق أسيموف "القوانين الثلاثة للروبوتات" - المعروفة أيضًا باسم قوانين أسيموف - في قصته القصيرة يركض حول. على الرغم من أن قوانين الروبوتات الثلاثة لأسيموف كانت جزءًا من عالم خيالي ، إلا أنها قد تكون نقطة انطلاق جيدة لبرمجة الروبوت اليوم.

قبل أن تنشر الحكومات أسلحة قاتلة ذاتية التشغيل ، وإذا نشرت ، فعليها التأكد من قدرتها على منع الروبوتات القاتلة المصممة للنشر في مناطق الحرب من شن حرب بنفسها ، أو التسبب في فظائع جماعية مثل قتل المدنيين.

قد يعتقد البعض أن قوانين الروبوتات التالية تتعارض مع ما يجب على الجندي فعله. ربما هذه هي النقطة الرئيسية بعد كل شيء. بعبارة أخرى ، ربما لا ينبغي للإنسان أن يعطي العمل القذر لآلة ليست بعد قادرة على تفريد المواقف وإصدار حكم.

  • لا يجوز للروبوت أن يجرح إنسانًا ، أو يسمح للإنسان من خلال التقاعس بإيذائه

  • يجب أن يطيع الروبوت الأوامر الصادرة عن البشر ، باستثناء الحالات التي تتعارض فيها هذه الأوامر مع القانون الأول

  • يجب أن يحمي الروبوت وجوده طالما أن هذه الحماية لا تتعارض مع القانون الأول أو الثاني

أوقف الروبوتات القاتلة

هناك حملة لوقف الروبوتات القاتلة ، وهو تحالف من المنظمات غير الحكومية التي تسعى إلى حظر استباقي للأسلحة الفتاكة ذاتية التشغيل (LAWS).

حث الأمين العام للأمم المتحدة الدول على التحرك بسرعة لمعالجة المخاوف بشأن أنظمة الأسلحة الفتاكة ذاتية التشغيل في تقريره لعام 2020 عن حماية المدنيين في النزاعات المسلحة. هذا هو أول تقرير للأمم المتحدة عن حماية المدنيين منذ 2013 لتسليط الضوء على المخاوف العامة بشأن الروبوتات القاتلة.

في تقرير عام 2020 ، وجد الأمين العام أنطونيو غوتيريس أن "جميع الأطراف تبدو متفقة على أنه ، على الأقل ، من الضروري الاحتفاظ بالسيطرة البشرية أو الحكم على استخدام القوة". كما أشار إلى أن "عددًا متزايدًا من الدول الأعضاء قد دعا إلى حظر أنظمة الأسلحة الفتاكة ذاتية التشغيل". منذ نوفمبر 2018 ، أعرب الأمين العام للأمم المتحدة مرارًا وتكرارًا عن رغبته في معاهدة دولية جديدة لحظر الروبوتات القاتلة.

حملة "أوقفوا الروبوتات القاتلة" تثني على الأمم المتحدة لحث الدول على الاتفاق على "القيود والالتزامات التي ينبغي تطبيقها على الحكم الذاتي في الأسلحة". يجب على الدول أن تبدأ الآن مفاوضات بشأن معاهدة دولية جديدة لحظر الأسلحة ذاتية التشغيل بالكامل مع الاحتفاظ بالسيطرة البشرية الفعالة على استخدام القوة.

كيف تقتل الروبوت

على الأرجح ، يقوم مصنعو الروبوتات القاتلة المستقلة بشحن الروبوتات القاتلة الخاصة بهم مع دليل التعليمات حيث يوجد خيار لإدخال رمز أمان عن بُعد لإلغاء تنشيط الروبوت القاتل.

إذا لم يكن هذا خيارًا ، فإن الطريقة الموثوقة لقتل الروبوت ستكون باستخدام نبضة كهرومغناطيسية (EMP) لإحداث تيار عالٍ يحرق دارة الروبوت. بالطبع ، هذا يفترض أن الروبوت القاتل ليس محميًا بواسطة Faraday Cage.


شاهد الفيديو: امرأة روبوت أغرب روبوتات لعام 2020 (يوليو 2022).


تعليقات:

  1. Fenrill

    جي

  2. Maximus

    في رأيي لم تكن على حق. أنا متأكد. أقترح ذلك لمناقشة. اكتب لي في PM.

  3. Acteon

    أعتقد أنك مخطئ. أنا متأكد. دعونا نناقش هذا. أرسل لي بريدًا إلكترونيًا في PM ، سنتحدث.

  4. Grayvesone

    تماما أشارك رأيك. في ذلك شيء ومن الجيد. وهي على استعداد لدعمكم.



اكتب رسالة