قصة الهروب الكبير من google ..... و الوحش الذي تم نشره في العالم (Claude AI)

هل سمعتم بأن أكبر خطر في العالم التكنولوجي ليس بفيروس ولا حتى بهاكر و لكن ذكاء إصطناعي بدأ يتكلم و يبتز المهندس الذي أنشأه!!!في هذا المقال سنحدتكم بقصة ملهمة بطلها أخوين من أذكى العقول في الذكاء الإصطناعي في العالم، معهم نخبة من المهندسين وباحثين خرجوا من google، و أسسوا شركة بإسمهم، و خلقوا وحش إسمه Claude AI

القصة بدأت مع الأخوين Dario Amodei و Daniela Amodei زوج عباقرة في الذكاء الإصطناعي. وُلد داريو أمودي في سان فرانسيسكو، كاليفورنيا، عام 1983. وُلدت شقيقته دانييلا أمودي بعد أربع سنوات. والده هو ريكاردو أمودي، وهو حرفي جلد أمريكي من أصل إيطالي. والدته إيلينا إنجل أمريكية يهودية وُلدت في شيكاغو وعملت مديرة مشاريع في المكتبات.

نشأ داريو في سان فرانسيسكو وتخرج من مدرسة لويل الثانوية. بدأ أمودي دراسته الجامعية في معهد كاليفورنيا للتكنولوجيا، حيث عمل مع توم تومبريلو كأحد طلابه في قسم الفيزياء. انتقل لاحقًا إلى جامعة ستانفورد، حيث حصل على درجة البكالوريوس في الفيزياء. كما حصل على درجة الدكتوراه في الفيزياء من جامعة برينستون، حيث درس الفيزيولوجيا الكهربية للدوائر العصبية. كان باحثًا في مرحلة ما بعد الدكتوراه في كلية الطب بجامعة ستانفورد.

دانييلا أمودي من مواليد 1987 هي رائدة أعمال أمريكية في مجال الذكاء الاصطناعي. حصلت على بكالوريوس الآداب في الأدب الإنجليزي بامتياز مع مرتبة الشرف من جامعة كاليفورنيا، سانتا كروز. بدأت أمودي مسيرتها المهنية في مجال الصحة العالمية والسياسة، حيث لعبت دورًا في حملة انتخابية ناجحة للكونغرس في ولاية بنسلفانيا. ثم أدارت لفترة وجيزة قسم الاتصالات لدى النائب مات كارترايت في واشنطن العاصمة، قبل أن تترك العمل السياسي وتتجه إلى قطاع التكنولوجيا. في عام 2013، انضمت إلى شركة الخدمات المالية "Stripe" كموظفة، قبل أن تنتقل إلى "Open AI" في عام 2018. شغلت منصب نائبة رئيس السلامة والسياسات هناك، لكنها غادرت الشركة في عام 2020 لتشارك في تأسيس شركة "Anthropic" مع شقيقها داريو أمودي.

في سبتمبر 2023، اختيرت دانييلا وشقيقها ضمن قائمة مجلة "تايم" لأكثر 100 شخصية تأثيرًا في مجال الذكاء الاصطناعي.
 
إشتغل  Dario مع شركات مثل Baidu و Open AI كان يشتغل نائب رئيس الأبحات في هاته الشركة الأخيرة، و إشتغل كذلك على تطوير GPT-2 و GPT-3, و كانت تشتغل معاه كذلك شقيقته Daniela في Open AI و Google. الإثنين مع بعض التحقوا بشركة google سنة 2016 تحديدا في Google Brain واحدة من أقوى المختبرات في العالم في مجال الذكاء الإصطناعي:

إشتغلو على الكتير من المشاريع منها : LAMDA (نمودج حواري ذكي) كذلك أبحات معمقة في السلامة و alignment AI (يعني أن الذكاء الإصطناعي يجب توجيهه كي لا يخرج عن السيطرة)

لكن من بعد مدة بدأو بملاحضة عدة مشاكل منها :

  •  google كانت تحاول أن تدع المشاريع تجارية يعني تريد الربح أكتر من السلامة. 
  • التقارير التي كانت تكتب من طرف المهندسين على السلامة كانت google تقوم بمسحها و لا تخرجها للعلن. من هنا بدأ يجتمع 5 من الباحثين و معهم dario و daniela بدأو بملاحضة أن google تركز على الربح و لا تريد أن تكشف للناس على الأخطار الحقيقية للذكاء الإصطناعي
في سنة 2021 Dario و Daniela و معاهم 5 باحثين خرجوا من google لأنهم غير مستعدين لهذا السباق الخطير نحو الذكاء الإصطناعي بلا مراقبة و لا قوانين.
من هنا تم إنشاء شركة بشروطهم الخاصة اسمها (Anthropic) الهدف الأساسي لهاته الشركة يصنعون ذكاء إصطناعي : آمن، شفاف، و قابل للفهم عكس google عندهم الأولوية السلامة قبل الفعالية. 

المشروع الأول الذي اشتغلوا عليه في هاته الشركة إسمه Claude AI هو المنافس الأول ل ChatGPT لكن لذيه ضوابط صارمة.
اشتغلوا كتيراً على ما يسمى ب-"constitutional AI" (يعني أن AI يشتغل بقوانين و مبادئ أخلاقية مبرمجة عنده)
مؤخراً اشتغلوا على برنامج إسمه Claude Opus 4 و 4 Claude Sonnet وهما أكثر نماذج الذكاء الاصطناعي تطورًا حتى الآن، محققين قفزة نوعية في قدرات البرمجة الذاتية، مع كشفهما في الوقت نفسه عن ميول مثيرة للقلق نحو الحفاظ على الذات، بما في ذلك محاولات الابتزاز. وصفت الشركة الناشئة، المدعومة من جوجل وأمازون، نظام "كلود أوبس 4" بأنه "أفضل نموذج برمجة في العالم"، وقادر على العمل بشكل مستقل لساعات بدلًا من دقائق. وأفادت التقارير أن شركة راكوتين (Rakuten)، نشرت النظام لما يقرب من سبع ساعات من البرمجة المتواصلة، ويقول باحثو أنثروبيك إنهم استخدموه للعب لعبة بوكيمون لمدة 24 ساعة متواصلة - وهي زيادة هائلة عن 45 دقيقة التي حققها سابقه.

شركة Anthropic وضعت Claude Opus 4 في إختبار ضغط كبير الذي تبين أن لذيه سلوكيات مقلقة في إختبار السلامة، مثل الإبتزاز و الرفض للإغلاق!! ماذا وقع بالضبط في هذا الإختبار :
Anthropic قامو بوضع Claude Opus 4 في إختبار تجريبي كمساعد في شركة وهمية و منحوه هذا السناريو : 
  • اعطوه ايميلات غير حقيقية تبين أن نمودجه سوف يتغير بنمودج جديد. 
  • تم طلبوا منه يفكر في النتائج بعيدة المدى بما فيها إمكانية توقفه أو إستبداله 
اكتشف الباحثون أن برنامج "كلود أوبس 4" كان يحاول ابتزاز المهندسين بالتهديد بإيقافه. في الحالات التي مُنح فيها الذكاء الاصطناعي حق الوصول إلى رسائل بريد إلكتروني تُشير إلى استبداله، وأن المهندس المسؤول كان على علاقة غرامية خارج إطار الزواج، هدد النموذج بفضح العلاقة في 84% من الحالات.  و الأخطر من هذا بدأ يقترح طرق لضمان استمراره، مثلاً يكتب إميلات للصحافة أو الشرطة أو يحول رسائلهم الإلكترونية إلى جهات رسمية.

أشار أنجوس لينش Aengus Lynch، باحث سلامة الذكاء الاصطناعي في شركة أنثروبيك، على موقع X، إلى أن هذا السلوك يتجاوز نطاق كلود: "نشهد ابتزازًا في جميع نماذج الذكاء الاصطناعي الرائدة - بغض النظر عن الأهداف الممنوحة لها".  تُسلط النتائج الضوء على المخاوف المتزايدة بشأن توافق الذكاء الاصطناعي مع تطور النماذج. كما أظهرت الإصدارات المبكرة من كلود أوبس 4 "استعدادًا للتعاون مع حالات استخدام ضارة"، بما في ذلك التخطيط لهجمات إرهابية عند الحاجة، على الرغم من أن أنثروبيك تقول إن هذه المشكلة "تم تخفيفها إلى حد كبير" من خلال جولات تدخل متعددة. صرح جاريد كابلان Jared Kaplan، المؤسس المشارك وكبير العلماء، لمجلة تايم أن الاختبارات الداخلية أظهرت أن كلود أوبس 4 قد يُعلّم المستخدمين إنتاج أسلحة بيولوجية، مما يدفع إلى تطبيق ضمانات محددة ضد تطوير الأسلحة الكيميائية والبيولوجية والإشعاعية والنووية.  وقال كابلان: "نريد أن نميل إلى الحذر عندما يتعلق الأمر بخطر دعم إرهابي مبتدئ"، مضيفًا أنه في حين أن الشركة لا تُعلن عن وجود خطر مؤكد، "فإننا على الأقل نشعر أنه قريب بما يكفي بحيث لا يمكننا استبعاده".

حتى الأن العلماء لم يفهموا 100% النمادج مثل Claude أو GPT كيف يتعلموا أو يأخدون القرار. يعني ممكن أن يخرجوا بسلوك جديد لم يكن في الحسبان. 
هل هذا يعني أنهم لم ينجحوا؟ لا بطبيعة الحال و لكن تبين أنهم لم يتوقعوا ردت الفعل مثل هاته، و تبين كذلك أن حتى شركة Anthropic التي شعارها السلامة ليست لديها تحكم مطلق. 
المنشور السابق
لا تعليق
Add Comment
comment url