حتى مع وجود العديد من الفوائد لا يزال من الممكن استخدام ChatGPT من قبل الجهات السيئة ، لذا يجب على السلطات اتخاذ بعض الإجراءات لضمان السلامة
يثير التأثير المحتمل لأدوات الذكاء الاصطناعي مثل ChatGPT مخاوف الخبراء وقادة الصناعة. أعربت ميرا موراتي ، كبيرة مسؤولي التكنولوجيا في شركة OpenAI ، الشركة التي تقف وراء ChatGPT ، عن قلقها من أن ChatGPT ، مثل أدوات الذكاء الاصطناعي الأخرى المستندة إلى نموذج اللغة ، يمكن أن تكوّن حقائق ويُساء استخدامها من قبل بعض الأشخاص الذين سيستخدمونها لأغراض سلبية. هذا هو السبب في أنها تعتقد أنه يجب تنظيم ChatGPT دائمًا لتجنب أي حوادث مؤسفة.
قال موراتي أيضًا أن هناك حاجة أيضًا إلى متعاونين للتقنيات ذات الصلة بالذكاء الاصطناعي. وذكرت أن شركات مثل OpenAI تحتاج إلى معالجة هذه المشكلة للجمهور حتى يتمكنوا من معرفة المخاطر المحتملة. ومع ذلك ، أكدت أن الشركة لا تستطيع القيام بذلك بمفردها وتحتاج إلى دعم من المنظمين والحكومات وغيرهم. من وجهة نظرها ، ليس من السابق لأوانه البدء في تنظيم الذكاء الاصطناعي. لقد أثار برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي اهتمامًا كبيرًا منذ إصداره في نوفمبر من العام الماضي ، مع قلق بعض الأشخاص من أنه قد يحل محل وظائفهم. ومع ذلك ، فقد تم استخدام chatbot بطرق إبداعية وفكرية مختلفة ، مثل إنشاء كتاب للأطفال وحتى اجتياز امتحان الترخيص الطبي في الولايات المتحدة.
في مقابلة مع StrictlyVC في يناير ، تحدث الرئيس التنفيذي لشركة ChatGPT Sam Altman عن تأثير نصوص الذكاء الاصطناعي على المجتمع. قال إنه سيتعين على الناس التكيف معها ، تمامًا مثلما تكيفوا مع الآلات الحاسبة وأشياء أخرى طوال حياتهم. يعتقد ألتمان أن فوائد الذكاء الاصطناعي شديدة وسيكون لها تأثير كبير. يتقدم الذكاء الاصطناعي بسرعة وله تأثير كبير على عالمنا. أصبح من المهم بشكل متزايد أن يعمل الخبراء وقادة الصناعة معًا لضمان تنظيم الذكاء الاصطناعي بطريقة مسؤولة تتماشى مع القيم الإنسانية. هذا صحيح بشكل خاص لأدوات الذكاء الاصطناعي القائمة على نموذج اللغة مثل ChatGPT ، والتي لديها القدرة على إنشاء معلومات خاطئة وإساءة استخدامها من قبل الجهات الفاعلة السيئة. تلعب شركات مثل OpenAI دورًا حاسمًا في زيادة الوعي حول الحاجة إلى التنظيم والتعاون مع المنظمين والحكومات وغيرها لضمان استخدام الذكاء الاصطناعي لصالح الجميع.
Leave a Reply