- إنضم
- 11 ديسمبر 2022
- المشاركات
- 1,840
- مستوى التفاعل
- 5,029
- المستوي
- 1
- الرتب
- 1
تسمح OpenAI باستخدام الذكاء الاصطناعي الخاص بها للأغراض “العسكرية والحربية”. وإليكم ما نعرفه حتى الآن
أوضحت OpenAI أن سياستها لا تسمح باستخدام الأدوات للإيذاء، أو تطوير الأسلحة، أو مراقبة الاتصالات، أو إصابة الآخرين أو تدمير الممتلكات، ولكنها تسمح بحالات استخدام تتعلق بالأمن القومي تتماشى مع مهمتها.
قامت شركة OpenAI بإجراء تغييرات بهدوء على سياسة الاستخدام الخاصة بها، حيث قامت بإزالة الحظر المفروض على استخدام التكنولوجيا الخاصة بها في "تطوير الأسلحة" و"الأعمال العسكرية والحربية". ذكرت صفحة السياسة المعاد كتابتها أنه تم إجراء تغييرات على الوثيقة لجعلها "أكثر وضوحًا" و"أكثر قابلية للقراءة". ومنذ ذلك الحين، تم استبدال كلمة "توضيح" بعبارة "إرشادات خاصة بالخدمة المضافة".
ظهرت التغييرات لأول مرة عبر تقرير صادر عن The Intercept، والذي أشار إلى أن التغييرات على سياسة استخدام OpenAI تم إجراؤها لأول مرة في 10 يناير. وأشار التقرير إلى أن سياسة استخدام OpenAI الأصلية تضمنت حظرًا على استخدام التكنولوجيا في أي "نشاط" التي تنطوي على مخاطر عالية من الأذى الجسدي، بما في ذلك "تطوير الأسلحة" و"الجيش والحرب".
ومع ذلك، فإن سياسة OpenAI الجديدة، مع الاحتفاظ بعبارة "استخدم خدمتنا لإيذاء نفسك أو الآخرين"، تسقط الحظر السابق على استخدام التكنولوجيا للأغراض العسكرية والحربية. علاوة على ذلك، تواصل الشركة حظر استخدام التكنولوجيا الخاصة بها في "تطوير الأسلحة". وفي بيان حول السياسة نقلته TechCrunch، قالت شركة الذكاء الاصطناعي الناشئة: "إن سياستنا لا تسمح باستخدام أدواتنا لإيذاء الأشخاص، أو تطوير الأسلحة، أو مراقبة الاتصالات، أو إصابة الآخرين أو تدمير الممتلكات. ومع ذلك، هناك حالات استخدام تتعلق بالأمن القومي تتوافق مع مهمتنا. على سبيل المثال، نحن نعمل بالفعل مع DARPA لتحفيز إنشاء أدوات جديدة للأمن السيبراني لتأمين البرامج مفتوحة المصدر التي تعتمد عليها البنية التحتية الحيوية والصناعة."
"لم يكن من الواضح ما إذا كان سيتم السماح بحالات الاستخدام المفيد هذه بموجب الحالة "العسكرية" في سياساتنا السابقة. لذا فإن الهدف من تحديث سياستنا هو توفير الوضوح والقدرة على إجراء هذه المناقشات." وأضاف البيان. كانت المخاوف بشأن الآثار السلبية للذكاء الاصطناعي، وخاصة في شن الحروب والأسباب الأخرى ذات الصلة، مصدر قلق للعديد من الخبراء في جميع أنحاء العالم. وقد تفاقمت هذه المخاوف بسبب إطلاق تقنيات الذكاء الاصطناعي التوليدية مثل ChatGPT من OpenAI، وGoogle's Bard وغيرها من التقنيات التي تجاوزت حدود ما يمكن أن يحققه الذكاء الاصطناعي. وفي مقابلة مع مجلة Wired العام الماضي، شبه الرئيس التنفيذي السابق لشركة جوجل، إريك شميدت، أنظمة الذكاء الاصطناعي بظهور الأسلحة النووية قبل الحرب العالمية الثانية. قال شميدت: "من حين لآخر، يأتي سلاح جديد، تكنولوجيا جديدة تغير الأشياء. كتب أينشتاين رسالة إلى روزفلت في ثلاثينيات القرن العشرين يقول فيها إن هناك هذه التكنولوجيا الجديدة - الأسلحة النووية - التي يمكن أن تغير الحرب، والتي لقد فعلت ذلك بوضوح. أود أن أزعم أن الاستقلالية [المدعومة بالذكاء الاصطناعي] والأنظمة اللامركزية الموزعة هي بهذه القوة."
أوضحت OpenAI أن سياستها لا تسمح باستخدام الأدوات للإيذاء، أو تطوير الأسلحة، أو مراقبة الاتصالات، أو إصابة الآخرين أو تدمير الممتلكات، ولكنها تسمح بحالات استخدام تتعلق بالأمن القومي تتماشى مع مهمتها.
قامت شركة OpenAI بإجراء تغييرات بهدوء على سياسة الاستخدام الخاصة بها، حيث قامت بإزالة الحظر المفروض على استخدام التكنولوجيا الخاصة بها في "تطوير الأسلحة" و"الأعمال العسكرية والحربية". ذكرت صفحة السياسة المعاد كتابتها أنه تم إجراء تغييرات على الوثيقة لجعلها "أكثر وضوحًا" و"أكثر قابلية للقراءة". ومنذ ذلك الحين، تم استبدال كلمة "توضيح" بعبارة "إرشادات خاصة بالخدمة المضافة".
ظهرت التغييرات لأول مرة عبر تقرير صادر عن The Intercept، والذي أشار إلى أن التغييرات على سياسة استخدام OpenAI تم إجراؤها لأول مرة في 10 يناير. وأشار التقرير إلى أن سياسة استخدام OpenAI الأصلية تضمنت حظرًا على استخدام التكنولوجيا في أي "نشاط" التي تنطوي على مخاطر عالية من الأذى الجسدي، بما في ذلك "تطوير الأسلحة" و"الجيش والحرب".
ومع ذلك، فإن سياسة OpenAI الجديدة، مع الاحتفاظ بعبارة "استخدم خدمتنا لإيذاء نفسك أو الآخرين"، تسقط الحظر السابق على استخدام التكنولوجيا للأغراض العسكرية والحربية. علاوة على ذلك، تواصل الشركة حظر استخدام التكنولوجيا الخاصة بها في "تطوير الأسلحة". وفي بيان حول السياسة نقلته TechCrunch، قالت شركة الذكاء الاصطناعي الناشئة: "إن سياستنا لا تسمح باستخدام أدواتنا لإيذاء الأشخاص، أو تطوير الأسلحة، أو مراقبة الاتصالات، أو إصابة الآخرين أو تدمير الممتلكات. ومع ذلك، هناك حالات استخدام تتعلق بالأمن القومي تتوافق مع مهمتنا. على سبيل المثال، نحن نعمل بالفعل مع DARPA لتحفيز إنشاء أدوات جديدة للأمن السيبراني لتأمين البرامج مفتوحة المصدر التي تعتمد عليها البنية التحتية الحيوية والصناعة."
"لم يكن من الواضح ما إذا كان سيتم السماح بحالات الاستخدام المفيد هذه بموجب الحالة "العسكرية" في سياساتنا السابقة. لذا فإن الهدف من تحديث سياستنا هو توفير الوضوح والقدرة على إجراء هذه المناقشات." وأضاف البيان. كانت المخاوف بشأن الآثار السلبية للذكاء الاصطناعي، وخاصة في شن الحروب والأسباب الأخرى ذات الصلة، مصدر قلق للعديد من الخبراء في جميع أنحاء العالم. وقد تفاقمت هذه المخاوف بسبب إطلاق تقنيات الذكاء الاصطناعي التوليدية مثل ChatGPT من OpenAI، وGoogle's Bard وغيرها من التقنيات التي تجاوزت حدود ما يمكن أن يحققه الذكاء الاصطناعي. وفي مقابلة مع مجلة Wired العام الماضي، شبه الرئيس التنفيذي السابق لشركة جوجل، إريك شميدت، أنظمة الذكاء الاصطناعي بظهور الأسلحة النووية قبل الحرب العالمية الثانية. قال شميدت: "من حين لآخر، يأتي سلاح جديد، تكنولوجيا جديدة تغير الأشياء. كتب أينشتاين رسالة إلى روزفلت في ثلاثينيات القرن العشرين يقول فيها إن هناك هذه التكنولوجيا الجديدة - الأسلحة النووية - التي يمكن أن تغير الحرب، والتي لقد فعلت ذلك بوضوح. أود أن أزعم أن الاستقلالية [المدعومة بالذكاء الاصطناعي] والأنظمة اللامركزية الموزعة هي بهذه القوة."
من فضلك,
تسجيل الدخول
أو
تسجيل
لعرض المحتوي!