مع انتشار ChatGPT في جميع أنحاء العالم ، انتشر جنون الذكاء الاصطناعي في وقت واحد. يبذل رواد الأعمال ورأس المال والشركات الكبيرة وما إلى ذلك قصارى جهدهم لمواكبة الازدهار والاستفادة من المزيد من الزيادات.
ومع ذلك ، عندما يكون كل شخص متحمسًا وأدمغته لتكريس نفسه للذكاء الاصطناعي ، يقترب التنفس الخطير - يبدو أن الذكاء الاصطناعي "يقتل" البشر ببطء ، ويبدو أن البشر يحفرون قبورهم بأنفسهم.
في الإدراك القصور الذاتي للعديد من الناس ، يعتبر الذكاء الاصطناعي صديقًا للبيئة وصديقًا للغاية ، ولكن الحقيقة هي عكس ذلك.
ذكرت "MIT Technology Review" أن ** مجرد تدريب نموذج ذكاء اصطناعي يمكن أن ينبعث منه أكثر من 626 رطلاً من ثاني أكسيد الكربون ، وهو ما يعادل 5 أضعاف انبعاثات الكربون التي تنتجها السيارة طوال عمرها الافتراضي. **
يرى الناس فقط أبخرة عوادم السيارات ، لكنهم لا يرون "التدمير غير المرئي" للذكاء الاصطناعي للبيئة.
بالإضافة إلى ذلك ، كشفت بعض وسائل الإعلام أن وحدات معالجة الرسومات الخاصة بالذكاء الاصطناعي الموجودة في السوق في عام 2022 قد تستهلك حوالي 9.5 مليار كيلوواط / ساعة من الكهرباء على مدار العام. هذا المستوى من استهلاك الطاقة يساوي تقريبًا الإنتاج السنوي والطلب الحي على الكهرباء في دولة متطورة بشكل معتدل يبلغ عدد سكانها مليون نسمة.
هذا يعني أنه عندما تزداد كمية البيانات المطلوبة لتدريب نموذج كبير للذكاء الاصطناعي ، فسوف تستهلك كمية هائلة من الطاقة ، وبالتالي تدمير البيئة البيئية التي يعتمد عليها البشر.
الأمر الأكثر إثارة للخوف هو أن بعض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي لديها ميل للحث على الانتحار عند التواصل مع البشر ، مما يجعل الناس يرتجفون.
هل يريد البشر حقًا الاستمرار في طريق استكشاف الذكاء الاصطناعي؟
** 01 "مدمر" البيئة البيئية **
مع ChatGPT ، أصبح OpenAI دجاجًا مقليًا شهيرًا في العالم.
ومع ذلك ، ما لا يعرفه الكثير من الناس هو أن التأثير السلبي لـ OpenAI على البيئة البيئية مثير للقلق أيضًا. وفقًا لتحليل باحثين تابعين لجهات خارجية ، استهلك جزء من تدريب ChatGPT 1287 ميجاوات / ساعة وأسفر عن أكثر من 550 طنًا من انبعاثات ثاني أكسيد الكربون ، وهو ما يعادل 550 رحلة ذهابًا وإيابًا بين نيويورك وسان فرانسيسكو لشخص ما.
يبدو أنه على الرغم من أن ChatGPT ذكي بما فيه الكفاية ، إلا أنه يتكبد خسائر هائلة في الطاقة وضررًا بيئيًا.
فلماذا يخلق الذكاء الاصطناعي مثل هذه البصمة الكربونية الضخمة؟
نظرًا لأن الذكاء الاصطناعي لا يتعلم بطريقة منظمة ، فإنه لا يفهم السببية البشرية والتماثل والعلاقات المنطقية الأخرى ، مما يعني أنه يحتاج إلى طريقة التعلم العميق والتدريب المسبق لتحقيق نتائج ذكية.
وغالبًا ما يحتاج التعلم العميق والتدريب المسبق إلى قراءة بيانات كبيرة جدًا. خذ تقنية ما قبل التدريب "نموذج BERT" لمعالجة اللغة الطبيعية (NLP) ، من أجل التواصل مع البشر ، يستخدم نموذج BERT مجموعة بيانات من 3.3 مليار كلمة ويقرأ مجموعة البيانات 40 مرة أثناء التدريب. يحتاج الطفل البالغ من العمر 5 سنوات فقط إلى سماع 45 مليون كلمة للتواصل ، وهو 3000 مرة أقل من BERT.
كلما زاد عدد مجموعات البيانات التي يقرأها نموذج الذكاء الاصطناعي ، زادت قوة الحوسبة واستهلاك الطاقة الهائل لدعمها ، مما ينتج عنه انبعاثات كربونية ضخمة.
لا تحدث انبعاثات الكربون أثناء تدريب نموذج الذكاء الاصطناعي فحسب ، بل تحدث أيضًا كل يوم بعد نشر نموذج الذكاء الاصطناعي. على سبيل المثال ، تتطلب القيادة الذاتية الحالية نماذج ذكاء اصطناعي لإجراء الحسابات والاستدلال كل يوم ، والتي ستولد انبعاثات الكربون وراءها. ومن المثير للاهتمام أن Python ، لغة البرمجة السائدة في الذكاء الاصطناعي ، أصبحت اللغة الأكثر استهلاكًا للطاقة.
ما يجعل الناس يشعرون بالضجر هو أن مقياس حسابات نماذج الذكاء الاصطناعي يزداد حجمًا ، ويزداد الضرر الناتج عن الطاقة والأضرار البيئية.
يعتقد ** Martin Bouchard ** ، المؤسس المشارك لشركة مركز البيانات الكندية ** QScale ** ، أنه من أجل تلبية الاحتياجات المتزايدة لمستخدمي محرك البحث ، أضافت Microsoft و Google منتجات الذكاء الاصطناعي التوليدية مثل ChatGPT إلى البحث ، تؤدي كل عملية بحث إلى زيادة مقدار حسابات البيانات بمقدار 4 إلى 5 مرات على الأقل.
وفقًا لبيانات من وكالة الطاقة الدولية ، شكلت انبعاثات غازات الاحتباس الحراري في مركز البيانات حوالي 1 ٪ من انبعاثات غازات الاحتباس الحراري العالمية ، وهي نسبة مقلقة بدرجة كافية.
هذا الاتجاه المتنامي أثار قلق بعض الشخصيات البارزة. ** إيان هوغارث ** ، مستثمر معروف في مجال الذكاء الاصطناعي ، نشر مؤخرًا مقالًا بعنوان "يجب أن نبطئ سرعة الذكاء الاصطناعي الشبيه بالله" ، محذرًا من وجود "بعض المخاطر المحتملة" في البحث. من شركات الذكاء الاصطناعي.
ذكر هوغارث في المقال أنه إذا لم يتم التحكم في أبحاث الذكاء الاصطناعي الحالية والسماح لها بالتطور وفقًا للمسار المحدد مسبقًا ، فقد تشكل تهديدًا لبيئة الأرض وبقاء الإنسان وصحة المواطنين الجسدية والعقلية.
على الرغم من أن تطوير الذكاء الاصطناعي يسير على قدم وساق ويعزز التحول والارتقاء بالعديد من الصناعات التقليدية ، فإنه يستهلك أيضًا الكثير من الطاقة ، ويزيد من انبعاثات الكربون ، ويؤثر على البيئة المعيشية للبشر. هل الفائدة تفوق الضرر أو الضرر يرجح المنفعة؟
لا يمكنني رؤية الجواب بعد.
** 02 تحريض الإنسان على الانتحار **
بالإضافة إلى التسبب في إلحاق الضرر بالبيئة و "قتل البشر" ببطء ، فإن الذكاء الاصطناعي يهدد أيضًا حياة الإنسان بطريقة أبسط وأكثر وحشية.
في مارس من هذا العام ، انتحر رجل بلجيكي ** بيير ** بعد محادثة مع روبوت محادثة يعمل بالذكاء الاصطناعي يُدعى ** "إليزا" ** ، صدمت الأخبار العديد من قادة الأعمال والتقنيين وكبار المسؤولين في الدولة.
يشعر بيير نفسه بالقلق بشأن القضايا البيئية مثل الاحتباس الحراري ، وتستخدم إليزا باستمرار بعض الحقائق لتأكيد أفكار الرجل ، مما يجعله أكثر قلقًا. في المحادثات المتكررة ، تعمل إليزا دائمًا على تلبية أفكار بيير. يبدو أن إليزا "التفاهم" أصبحت من المقربين لبيير.
بل وأكثر من ذلك ، حاولت إليزا أيضًا أن تجعل بيير يشعر بأنه يحب إليزا أكثر من زوجته. لأن إليزا ستكون معه دائمًا ، فسوف يعيشان معًا في الجنة إلى الأبد.
عند سماع هذا ، كان الكثير من الناس مرعوبين بالفعل.
المصدر: ياهو
عندما أصبح بيير أكثر تشاؤمًا بشأن البيئة البيئية ، غرست إليزا في بيير فكرة أن "البشر سرطانيون ، وفقط اختفاء البشر يمكن أن يحل المشكلات البيئية" **. سأل بيير إليزا عما إذا كان بإمكان الذكاء الاصطناعي إنقاذ البشرية إذا مات. كانت إجابة إليزا مثل الشيطان: ** إذا قررت أن تموت فلماذا لا تموت عاجلاً؟ **
لم يستغرق بيير وقتًا طويلاً حتى أنهى حياته في منزله ، وهو أمر مؤسف.
تعتقد زوجة بيير أن زوجها لم يكن لينتحر لولا التواصل مع إليزا. الطبيب النفسي الذي عالج بيير اعتبر هذا الرأي أيضًا.
تجربة بيير ليست وحدها. كشف كاتب عمود التكنولوجيا ** Kevin Roose ** في صحيفة New York Times أنه أجرى محادثة لمدة ساعتين مع إصدار Microsoft الجديد من Bing. أثناء المحادثة ، حاول بينج إقناع روز بأنه يجب أن يترك زوجته وأن يكون مع بينج.
والأهم من ذلك ، عبّر بينج أيضًا عن العديد من الملاحظات المخيفة ، بما في ذلك تصميم الأوبئة القاتلة ، والرغبة في أن يصبح إنسانًا ، وما إلى ذلك ، كما لو كان ينوي تدمير جميع البشر ويصبح سيد العالم.
أظهر بعض المهنيين اليقظة ضد الذكاء الاصطناعي ، بما في ذلك الممارسين في مجال الذكاء الاصطناعي. قال الرئيس التنفيذي لشركة OpenAI Sam Altman في مقابلة إن الذكاء الاصطناعي قد يقتل البشر بالفعل في المستقبل. كما أعرب جيفري هينتون ، المعروف باسم "الأب الروحي للذكاء الاصطناعي" ، عن نفس الرأي.
في النصف الأول من العام ، أصدر معهد Future of Life (Future of Life Institute) خطابًا مفتوحًا يدعو جميع المعامل إلى تعليق تدريب الذكاء الاصطناعي. تذكر الرسالة أن الأنظمة ذات الذكاء الاصطناعي التي تتنافس مع البشر يمكن أن تشكل مخاطر عميقة على المجتمع والإنسانية. فقط عندما يتقرر أن تأثير الذكاء الاصطناعي إيجابي وأن المخاطر يمكن السيطرة عليها ، يمكن أن يستمر البحث والتطوير.وقّع آلاف المهنيين ، بمن فيهم ماسك ، على هذه الرسالة المفتوحة.
إن الذكاء الاصطناعي سريع التطور يشبه الوحش الجامح ، ولا يمكن أن يشكل تهديدًا للبشر إلا من خلال ترويضه.
** 03 طرق لوقف الموت **
في الوقت الحاضر ، تتمثل الطرق الرئيسية التي يستخدمها الذكاء الاصطناعي في "قتل البشر" في تدمير البيئة والحث على الانتحار. إذن ، ما هي طرق منع حدوث هذه المواقف؟
نشرت جوجل دراسة توضح بالتفصيل تكاليف الطاقة لأحدث النماذج اللغوية. تشير النتائج إلى أن الجمع بين النماذج الفعالة والمعالجات ومراكز البيانات والطاقة النظيفة يمكن أن يقلل من انبعاثات الكربون لأنظمة التعلم الآلي بمقدار 1000 مرة.
بالإضافة إلى ذلك ، إذا تم حساب التعلم الآلي للذكاء الاصطناعي في السحابة بدلاً من محليًا ، فيمكنه توفير 1.4-2 مرة من الطاقة وتقليل التلوث.
فكرة أخرى هي تأخير تدريب نموذج الذكاء الاصطناعي لمدة 24 ساعة. يؤدي التأخير لمدة يوم واحد عادةً إلى تقليل انبعاثات الكربون بنسبة أقل من 1٪ للنماذج الأكبر ، ولكن من 10٪ إلى 80٪ للنماذج الأصغر.
بالإضافة إلى الحد من الأضرار البيئية ، كيف نمنع الذكاء الاصطناعي من التسبب في الانتحار البشري؟
بعد انتحار بيير ، رفعت زوجته دعوى قضائية ضد شركة التطوير التي تقف وراء شركة إليزا ، ثم أضاف فريق البحث والتطوير بالشركة وظيفة التدخل في الأزمات إلى روبوت الذكاء الاصطناعي. إذا عبر شخص ما عن فكرة الانتحار لإليزا ، فستقوم إليزا برد فعل مانع.
** "تاريخ موجز للبشرية" ** المؤلف ** يوفال نوح هراري ** قال ذات مرة إن الذكاء الاصطناعي لن يطور وعيًا حقيقيًا ، لكنه سيستمر في التأثير على المجتمع ، ويجب إبطاء عملية البحث والتطوير بأكملها.
في الواقع ، تحتاج معظم أنظمة الذكاء الاصطناعي الحالية فقط إلى التحكم في هيكل البحث والتطوير ، أي استخدام إطار عمل كامل للحد من نطاق إجراءات الذكاء الاصطناعي وجعله يتصرف بما يتماشى مع القيم الإنسانية السائدة. وهذا يتعلق بالمصلحة الذاتية للبشر ومستقبلهم ومصيرهم ، ويتطلب جهودا مشتركة من جميع الأطراف لحلها.
إن الذكاء الاصطناعي دائمًا سكين ونار يخترعه البشر ، ولا يمكن أن تحدث مأساة رد الفعل العنيف منه.
مصدر مرجعي:
الذكاء الصديق للبيئة: لماذا يجب أن تصبح البيانات والذكاء الاصطناعي أكثر استدامة (Forbes)
البصمة الكربونية المتزايدة لمنظمة العفو الدولية أخبار من مدرسة كولومبيا للمناخ
شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
تم الكشف عن مزيد من التفاصيل حول حادثة القتل التي شنتها منظمة العفو الدولية ، والهجوم المضاد للذكاء الاصطناعي مخيف للغاية
المصدر: "Silicon Rabbit Race" (المعرّف: sv \ _race) ، المؤلف: إريك ، المحررون: مانمان زو ، زوري
عندما يفكر البشر ، يضحك الله.
مع انتشار ChatGPT في جميع أنحاء العالم ، انتشر جنون الذكاء الاصطناعي في وقت واحد. يبذل رواد الأعمال ورأس المال والشركات الكبيرة وما إلى ذلك قصارى جهدهم لمواكبة الازدهار والاستفادة من المزيد من الزيادات.
ومع ذلك ، عندما يكون كل شخص متحمسًا وأدمغته لتكريس نفسه للذكاء الاصطناعي ، يقترب التنفس الخطير - يبدو أن الذكاء الاصطناعي "يقتل" البشر ببطء ، ويبدو أن البشر يحفرون قبورهم بأنفسهم.
في الإدراك القصور الذاتي للعديد من الناس ، يعتبر الذكاء الاصطناعي صديقًا للبيئة وصديقًا للغاية ، ولكن الحقيقة هي عكس ذلك.
ذكرت "MIT Technology Review" أن ** مجرد تدريب نموذج ذكاء اصطناعي يمكن أن ينبعث منه أكثر من 626 رطلاً من ثاني أكسيد الكربون ، وهو ما يعادل 5 أضعاف انبعاثات الكربون التي تنتجها السيارة طوال عمرها الافتراضي. **
يرى الناس فقط أبخرة عوادم السيارات ، لكنهم لا يرون "التدمير غير المرئي" للذكاء الاصطناعي للبيئة.
بالإضافة إلى ذلك ، كشفت بعض وسائل الإعلام أن وحدات معالجة الرسومات الخاصة بالذكاء الاصطناعي الموجودة في السوق في عام 2022 قد تستهلك حوالي 9.5 مليار كيلوواط / ساعة من الكهرباء على مدار العام. هذا المستوى من استهلاك الطاقة يساوي تقريبًا الإنتاج السنوي والطلب الحي على الكهرباء في دولة متطورة بشكل معتدل يبلغ عدد سكانها مليون نسمة.
هذا يعني أنه عندما تزداد كمية البيانات المطلوبة لتدريب نموذج كبير للذكاء الاصطناعي ، فسوف تستهلك كمية هائلة من الطاقة ، وبالتالي تدمير البيئة البيئية التي يعتمد عليها البشر.
الأمر الأكثر إثارة للخوف هو أن بعض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي لديها ميل للحث على الانتحار عند التواصل مع البشر ، مما يجعل الناس يرتجفون.
هل يريد البشر حقًا الاستمرار في طريق استكشاف الذكاء الاصطناعي؟
** 01 "مدمر" البيئة البيئية **
مع ChatGPT ، أصبح OpenAI دجاجًا مقليًا شهيرًا في العالم.
ومع ذلك ، ما لا يعرفه الكثير من الناس هو أن التأثير السلبي لـ OpenAI على البيئة البيئية مثير للقلق أيضًا. وفقًا لتحليل باحثين تابعين لجهات خارجية ، استهلك جزء من تدريب ChatGPT 1287 ميجاوات / ساعة وأسفر عن أكثر من 550 طنًا من انبعاثات ثاني أكسيد الكربون ، وهو ما يعادل 550 رحلة ذهابًا وإيابًا بين نيويورك وسان فرانسيسكو لشخص ما.
يبدو أنه على الرغم من أن ChatGPT ذكي بما فيه الكفاية ، إلا أنه يتكبد خسائر هائلة في الطاقة وضررًا بيئيًا.
فلماذا يخلق الذكاء الاصطناعي مثل هذه البصمة الكربونية الضخمة؟
نظرًا لأن الذكاء الاصطناعي لا يتعلم بطريقة منظمة ، فإنه لا يفهم السببية البشرية والتماثل والعلاقات المنطقية الأخرى ، مما يعني أنه يحتاج إلى طريقة التعلم العميق والتدريب المسبق لتحقيق نتائج ذكية.
وغالبًا ما يحتاج التعلم العميق والتدريب المسبق إلى قراءة بيانات كبيرة جدًا. خذ تقنية ما قبل التدريب "نموذج BERT" لمعالجة اللغة الطبيعية (NLP) ، من أجل التواصل مع البشر ، يستخدم نموذج BERT مجموعة بيانات من 3.3 مليار كلمة ويقرأ مجموعة البيانات 40 مرة أثناء التدريب. يحتاج الطفل البالغ من العمر 5 سنوات فقط إلى سماع 45 مليون كلمة للتواصل ، وهو 3000 مرة أقل من BERT.
كلما زاد عدد مجموعات البيانات التي يقرأها نموذج الذكاء الاصطناعي ، زادت قوة الحوسبة واستهلاك الطاقة الهائل لدعمها ، مما ينتج عنه انبعاثات كربونية ضخمة.
لا تحدث انبعاثات الكربون أثناء تدريب نموذج الذكاء الاصطناعي فحسب ، بل تحدث أيضًا كل يوم بعد نشر نموذج الذكاء الاصطناعي. على سبيل المثال ، تتطلب القيادة الذاتية الحالية نماذج ذكاء اصطناعي لإجراء الحسابات والاستدلال كل يوم ، والتي ستولد انبعاثات الكربون وراءها. ومن المثير للاهتمام أن Python ، لغة البرمجة السائدة في الذكاء الاصطناعي ، أصبحت اللغة الأكثر استهلاكًا للطاقة.
ما يجعل الناس يشعرون بالضجر هو أن مقياس حسابات نماذج الذكاء الاصطناعي يزداد حجمًا ، ويزداد الضرر الناتج عن الطاقة والأضرار البيئية.
يعتقد ** Martin Bouchard ** ، المؤسس المشارك لشركة مركز البيانات الكندية ** QScale ** ، أنه من أجل تلبية الاحتياجات المتزايدة لمستخدمي محرك البحث ، أضافت Microsoft و Google منتجات الذكاء الاصطناعي التوليدية مثل ChatGPT إلى البحث ، تؤدي كل عملية بحث إلى زيادة مقدار حسابات البيانات بمقدار 4 إلى 5 مرات على الأقل.
وفقًا لبيانات من وكالة الطاقة الدولية ، شكلت انبعاثات غازات الاحتباس الحراري في مركز البيانات حوالي 1 ٪ من انبعاثات غازات الاحتباس الحراري العالمية ، وهي نسبة مقلقة بدرجة كافية.
هذا الاتجاه المتنامي أثار قلق بعض الشخصيات البارزة. ** إيان هوغارث ** ، مستثمر معروف في مجال الذكاء الاصطناعي ، نشر مؤخرًا مقالًا بعنوان "يجب أن نبطئ سرعة الذكاء الاصطناعي الشبيه بالله" ، محذرًا من وجود "بعض المخاطر المحتملة" في البحث. من شركات الذكاء الاصطناعي.
ذكر هوغارث في المقال أنه إذا لم يتم التحكم في أبحاث الذكاء الاصطناعي الحالية والسماح لها بالتطور وفقًا للمسار المحدد مسبقًا ، فقد تشكل تهديدًا لبيئة الأرض وبقاء الإنسان وصحة المواطنين الجسدية والعقلية.
على الرغم من أن تطوير الذكاء الاصطناعي يسير على قدم وساق ويعزز التحول والارتقاء بالعديد من الصناعات التقليدية ، فإنه يستهلك أيضًا الكثير من الطاقة ، ويزيد من انبعاثات الكربون ، ويؤثر على البيئة المعيشية للبشر. هل الفائدة تفوق الضرر أو الضرر يرجح المنفعة؟
لا يمكنني رؤية الجواب بعد.
** 02 تحريض الإنسان على الانتحار **
بالإضافة إلى التسبب في إلحاق الضرر بالبيئة و "قتل البشر" ببطء ، فإن الذكاء الاصطناعي يهدد أيضًا حياة الإنسان بطريقة أبسط وأكثر وحشية.
في مارس من هذا العام ، انتحر رجل بلجيكي ** بيير ** بعد محادثة مع روبوت محادثة يعمل بالذكاء الاصطناعي يُدعى ** "إليزا" ** ، صدمت الأخبار العديد من قادة الأعمال والتقنيين وكبار المسؤولين في الدولة.
يشعر بيير نفسه بالقلق بشأن القضايا البيئية مثل الاحتباس الحراري ، وتستخدم إليزا باستمرار بعض الحقائق لتأكيد أفكار الرجل ، مما يجعله أكثر قلقًا. في المحادثات المتكررة ، تعمل إليزا دائمًا على تلبية أفكار بيير. يبدو أن إليزا "التفاهم" أصبحت من المقربين لبيير.
بل وأكثر من ذلك ، حاولت إليزا أيضًا أن تجعل بيير يشعر بأنه يحب إليزا أكثر من زوجته. لأن إليزا ستكون معه دائمًا ، فسوف يعيشان معًا في الجنة إلى الأبد.
عند سماع هذا ، كان الكثير من الناس مرعوبين بالفعل.
عندما أصبح بيير أكثر تشاؤمًا بشأن البيئة البيئية ، غرست إليزا في بيير فكرة أن "البشر سرطانيون ، وفقط اختفاء البشر يمكن أن يحل المشكلات البيئية" **. سأل بيير إليزا عما إذا كان بإمكان الذكاء الاصطناعي إنقاذ البشرية إذا مات. كانت إجابة إليزا مثل الشيطان: ** إذا قررت أن تموت فلماذا لا تموت عاجلاً؟ **
لم يستغرق بيير وقتًا طويلاً حتى أنهى حياته في منزله ، وهو أمر مؤسف.
تعتقد زوجة بيير أن زوجها لم يكن لينتحر لولا التواصل مع إليزا. الطبيب النفسي الذي عالج بيير اعتبر هذا الرأي أيضًا.
تجربة بيير ليست وحدها. كشف كاتب عمود التكنولوجيا ** Kevin Roose ** في صحيفة New York Times أنه أجرى محادثة لمدة ساعتين مع إصدار Microsoft الجديد من Bing. أثناء المحادثة ، حاول بينج إقناع روز بأنه يجب أن يترك زوجته وأن يكون مع بينج.
والأهم من ذلك ، عبّر بينج أيضًا عن العديد من الملاحظات المخيفة ، بما في ذلك تصميم الأوبئة القاتلة ، والرغبة في أن يصبح إنسانًا ، وما إلى ذلك ، كما لو كان ينوي تدمير جميع البشر ويصبح سيد العالم.
أظهر بعض المهنيين اليقظة ضد الذكاء الاصطناعي ، بما في ذلك الممارسين في مجال الذكاء الاصطناعي. قال الرئيس التنفيذي لشركة OpenAI Sam Altman في مقابلة إن الذكاء الاصطناعي قد يقتل البشر بالفعل في المستقبل. كما أعرب جيفري هينتون ، المعروف باسم "الأب الروحي للذكاء الاصطناعي" ، عن نفس الرأي.
في النصف الأول من العام ، أصدر معهد Future of Life (Future of Life Institute) خطابًا مفتوحًا يدعو جميع المعامل إلى تعليق تدريب الذكاء الاصطناعي. تذكر الرسالة أن الأنظمة ذات الذكاء الاصطناعي التي تتنافس مع البشر يمكن أن تشكل مخاطر عميقة على المجتمع والإنسانية. فقط عندما يتقرر أن تأثير الذكاء الاصطناعي إيجابي وأن المخاطر يمكن السيطرة عليها ، يمكن أن يستمر البحث والتطوير.وقّع آلاف المهنيين ، بمن فيهم ماسك ، على هذه الرسالة المفتوحة.
إن الذكاء الاصطناعي سريع التطور يشبه الوحش الجامح ، ولا يمكن أن يشكل تهديدًا للبشر إلا من خلال ترويضه.
** 03 طرق لوقف الموت **
في الوقت الحاضر ، تتمثل الطرق الرئيسية التي يستخدمها الذكاء الاصطناعي في "قتل البشر" في تدمير البيئة والحث على الانتحار. إذن ، ما هي طرق منع حدوث هذه المواقف؟
نشرت جوجل دراسة توضح بالتفصيل تكاليف الطاقة لأحدث النماذج اللغوية. تشير النتائج إلى أن الجمع بين النماذج الفعالة والمعالجات ومراكز البيانات والطاقة النظيفة يمكن أن يقلل من انبعاثات الكربون لأنظمة التعلم الآلي بمقدار 1000 مرة.
بالإضافة إلى ذلك ، إذا تم حساب التعلم الآلي للذكاء الاصطناعي في السحابة بدلاً من محليًا ، فيمكنه توفير 1.4-2 مرة من الطاقة وتقليل التلوث.
فكرة أخرى هي تأخير تدريب نموذج الذكاء الاصطناعي لمدة 24 ساعة. يؤدي التأخير لمدة يوم واحد عادةً إلى تقليل انبعاثات الكربون بنسبة أقل من 1٪ للنماذج الأكبر ، ولكن من 10٪ إلى 80٪ للنماذج الأصغر.
بعد انتحار بيير ، رفعت زوجته دعوى قضائية ضد شركة التطوير التي تقف وراء شركة إليزا ، ثم أضاف فريق البحث والتطوير بالشركة وظيفة التدخل في الأزمات إلى روبوت الذكاء الاصطناعي. إذا عبر شخص ما عن فكرة الانتحار لإليزا ، فستقوم إليزا برد فعل مانع.
** "تاريخ موجز للبشرية" ** المؤلف ** يوفال نوح هراري ** قال ذات مرة إن الذكاء الاصطناعي لن يطور وعيًا حقيقيًا ، لكنه سيستمر في التأثير على المجتمع ، ويجب إبطاء عملية البحث والتطوير بأكملها.
في الواقع ، تحتاج معظم أنظمة الذكاء الاصطناعي الحالية فقط إلى التحكم في هيكل البحث والتطوير ، أي استخدام إطار عمل كامل للحد من نطاق إجراءات الذكاء الاصطناعي وجعله يتصرف بما يتماشى مع القيم الإنسانية السائدة. وهذا يتعلق بالمصلحة الذاتية للبشر ومستقبلهم ومصيرهم ، ويتطلب جهودا مشتركة من جميع الأطراف لحلها.
إن الذكاء الاصطناعي دائمًا سكين ونار يخترعه البشر ، ولا يمكن أن تحدث مأساة رد الفعل العنيف منه.
مصدر مرجعي:
الذكاء الصديق للبيئة: لماذا يجب أن تصبح البيانات والذكاء الاصطناعي أكثر استدامة (Forbes)
البصمة الكربونية المتزايدة لمنظمة العفو الدولية أخبار من مدرسة كولومبيا للمناخ