الذكاء الاصطناعي (IA) تدهشنا بأدائها في العديد من المجالات. ولكن كيف يتعلم الذكاء الاصطناعي القيام بما يفعله؟
الجواب بسيط: من خلال التغذية ببيانات ضخمة من الويب. وبفضل هذه البيانات، تمكنت أنظمة الذكاء الاصطناعي مثل ChatGPT وBard من اكتساب المعرفة والمهارات التي تتيح لها فهم العالم الحقيقي بطريقة دقيقة.
لكن هذا الأسلوب في التعلم يثير أسئلة قانونية وأخلاقية، وخاصة فيما يتعلق باحترام حقوق النشر. واقترحت شركة جوجل، التي تستخدم البيانات عبر الإنترنت على نطاق واسع لتدريب أنظمة الذكاء الاصطناعي الخاصة بها، تغيير التشريعات الحالية بشأن هذا الموضوع.
وفي هذا المقال سنكتشف هذا الاقتراح وتداعياته.
اقتراح Google بشأن إمكانية الوصول إلى المحتوى عبر الإنترنت لأنظمة الذكاء الاصطناعي
اقترحت شركة جوجل أن يكون كل المحتوى عبر الإنترنت متاحًا لأنظمة الذكاء الاصطناعي للتدريب، ما لم يوافق الناشرون على ذلك. وفي اقتراح مقدم إلى الحكومة الأسترالية، دعا محرك البحث إلى تغيير قوانين حقوق الطبع والنشر الحالية.
تريد Google أن يتمكن الذكاء الاصطناعي من الوصول إلى كل المحتوى الرقمي ما لم يختار الناشرون عدم المشاركة. وقدم عملاق الويب هذا الاقتراح إلى الحكومة الأسترالية لتشجيع الأخيرة على تعديل قوانين حقوق النشر الحالية.
إذا تغيرت هذه القوانين، فستقع المسؤولية على عاتق العلامات التجارية والناشرين لمنع استغلال محتواهم بواسطة الذكاء الاصطناعي.
إذا فشلوا، فقد يجدون أنفسهم يتنافسون مع محتوى مشابه جدًا ولن يتمكنوا من تأكيد حقوقهم، مما قد يؤدي إلى إلحاق ضرر كبير بالحملة من حيث الصورة والهوية.
وفي رسالته إلى الحكومة الأسترالية..جوجل يقول:
“أنظمة حقوق الطبع والنشر التي تتيح الاستخدام المناسب والعادل للمحتوى المحمي بحقوق الطبع والنشر لتدريب نماذج الذكاء الاصطناعي في أستراليا على مجموعة واسعة ومتنوعة من البيانات، مع دعم عمليات إلغاء الاشتراك القابلة للتطبيق للكيانات التي تفضل عدم استخدام بياناتها في أنظمة الذكاء الاصطناعي.“
وقد قدم محرك البحث سابقًا حالات مماثلة للحكومة الأسترالية، بحجة أن الذكاء الاصطناعي يجب أن يكون قادرًا على استخدام المحتوى عبر الإنترنت بشكل عادل لأغراض التدريب.
ولكن هذه هي المرة الأولى التي تقترح فيها جوجل بند الاستبعاد لمعالجة المخاوف السابقة.
ما هي خطة Google فيما يتعلق بالمحتوى والذكاء الاصطناعي؟
ليس لدى Google خطة محددة حتى الآن، ولكنها أعربت عن اهتمامها بإجراء مناقشات لإعداد خطةتطوير المجتمع لمعايير الويب.
قد يكون شيئا مثل النظامملف robots.txt، والذي يسمح للناشرين بمنع محركات البحث من الزحف إلى المحتوى الخاص بهم.
أما بالنسبة لذلك،دانييل رومان، نائب رئيس الثقة في بحث Google، أعلن في بيان صحفي الشهر الماضي ما يلي:
“النظام البيئي للمحتوى النابض بالحياة يفيد الجميع. المفتاح هو أن الناشرين على الويب لديهم حرية الاختيار والتحكم في محتواهم وفرص الاستفادة من مشاركتهم في النظام البيئي للويب.
ومع ذلك، فإننا ندرك أن عناصر التحكم الحالية في محرر الويب قد تم تطويرها قبل ظهور الاستخدامات الجديدة للذكاء الاصطناعي والبحث.
نعتقد أن الوقت قد حان لمجتمع الويب والذكاء الاصطناعي لاستكشاف وسائل إضافية يمكن قراءتها آليًا لاختيار ناشري الويب والتحكم بهم لاستخدامات الذكاء الاصطناعي الناشئة وحالات البحث.“
بمعنى آخر، من المهم أن يكون لديك نظام بيئي حيوي للمحتوى يفيد جميع الأطراف المعنية.
الفكرة الأساسية هي أن ناشري مواقع الويب يجب أن يتمتعوا بالحرية في تحديد المحتوى الخاص بهم والتحكم فيه، مع القدرة على الاستفادة من مشاركتهم في النظام البيئي عبر الإنترنت.
في ملخص
في الختام، تريد جوجل أن يكون التشريع ملائمًا لاستخدام المحتوى عبر الإنترنت لتدريب الذكاء الاصطناعي. الهدف هو السماح لمنشئي المحتوى بأن يقرروا بأنفسهم ما إذا كان من الممكن الوصول إلى المحتوى الخاص بهم عن طريق الذكاء الاصطناعي.