Ethics and the Inclusive Governance of Artificial Intelligence

الأخلاقيات و الحوكمة الإحتوائية للذكاء الإصطناعي

By Stefanie Felsberger

ترجمة يسرى سلطان

This year the Access to Knowledge for Development Centre’s (A2K4D) Eighth Annual Workshop was titled Digital Technologies, Innovation, and Inclusive Growth: Alternative Narratives. The workshop brought together multidisciplinary researchers, experts, and stakeholders from the community, including representatives from international organizations, and A2K4D’s local, regional, and global networks. One session was organized as part of the center’s Inclusive Internet Governance initiative and focused on the contemporary debates on the intersection between ethics, inclusion, and the governance of Artificial Intelligence (AI). A2K4D’s Inclusive Internet Governance initiative aims to highlight the importance of Internet Governance for Egypt through a series of events. Three panelists contributed to the discussion moderated by Nagham El-Houssamy, Senior Researcher at A2K4D; these were Sherif El-Kassas, Professor at the American University in Cairo (AUC); AUC, Baher Esmat, Vice President of Stakeholder Engagement for the Middle East at the International Corporation for Assigned Names and Numbers (ICANN), and Stefanie Felsberger, Senior Researcher at A2K4D.

عقد مركز “اتاحة المعرفة من أجل التنمية /A2K4D” هذا العام ورشته السنوية الثامنة تحت عنوان ” التقنيات الرقمية والإبتكار والنمو الإحتوائي  : سرديات بديلة .” جمعت الورشة بين باحثين وخبراء في مجالات مختلفة،  وأصحاب المصلحة من المجتمع بما في ذلك ممثلون عن منظمات دولية وعن شبكات A2K4D المحلية والإقليمية والعالمية. تحت مبادرة “حوكمة الإنترنت الاحتوائية” تم تنظيم جلسة للبحث في النقاشات الجارية حول التداخل بين الأخلاقيات والشمول و حوكمة الذكاء الإصطناعي. تهدف مبادرة A2K4D لحوكمة الإنترنت الاحتوائية إلى تسليط الضوء على أهمية حوكمة الإنترنت في مصر من خلال مجموعة من الفعاليات. أدارت الجلسة نغم الحسامي وهي باحثة رئيسية في مركز A2K4D، وشارك في النقاش ثلاث باحثين هم: شريف القصاص الأستاذ في الجامعة الأمريكية في القاهرة (AUC)، وباهر عصمت نائب الرئيس المسئول عن التواصل مع أصحاب المصلحة في منطقة الشرق الأوسط في الشركة الدولية للتخصيص في شركة الإنترنت للأرقام والأسماء المخصصة (ICANN)، وستيفاني فلسبرغر الباحثة الرئيسية في مركز A2K4D.

The discussion highlighted the importance of AI and its central role in the future. Current global debates on the positive and negative impacts of AI have become much more nuanced: instead of asking whether AI has a positive or negative impact, the questions are who will be affected, how and when does AI have a positive or negative impact, and, for who. Consequently, it becomes important to ask what the type of governance is required to positively encourage positive AI impact. The discussions focused on two intersecting topics: first, the ethics of AI and its governance; second, regulation and inclusion.

أبرز النقاش أهمية الذكاء الإصطناعي ودوره المحوري في المستقبل. لقد أصبح النقاش العالمي بشأن الآثار الإيجابية والسلبية للذكاء الإصطناعي اكثر دقة، فبدلاً من السؤال عما إذا كان للذكاء الإصطناعي أثر إيجابي أم سلبي، أصبحت الأسئلة المطروحة تركز على من سيتأثر بالذكاء الإصطناعي، وكيف، ومتى يكون هذا التأثير سلبي أو إيجابي و بالنسبة لمن. وبالتالي يصبح من المهم السؤال عن نوع الحوكمة المطلوب لتشجيع التأثير الإيجابي للذكاء الإصطناعي. وقد ركز النقاش على موضوعين متداخلين: الأول هو أخلاقيات الذكاء الإصطناعي وحوكمته، والثاني هو التنظيم والشمول.

Baher Esmat, Stefanie Felsberger, Nagham El Houssamy, and Sherif El-Kassas

Ethics and Governance

الأخلاقيات والحوكمة

The first half of the session focused on AI ethics and governance. In many countries, discussions about AI ethics and governance dominate the news and public spaces, but in Egypt the topic has not been as prominent as there are not as many AI applications being implemented or developed as there are, for example, in the United States. Nevertheless, Felsberger argued that many of the elements that discourage or encourage AI production are already in place and how they are governed right now determines the future of AI. The field of AI is also developing at a rapid pace. In order to not be left behind, it is crucial to discuss topics such as local AI production and data governance as well as AI governance and ethics. This also facilitates participation in the global debates on AI ethics and governance.

ركز النصف الأول من الجلسة على أخلاقيات الذكاء الإصطناعي والحوكمة. تهيمن النقاشات حول الذكاء الإصطناعي على الأخبار والمجال العام في الكثير من البلدان. لكن في مصر لم يكن الموضوع بارزاً حيث لا يوجد نفس العدد من تطبيقات الذكاء الإصطناعي التي يتم تنفيذها وتطويرها كما هو الحال في الولايات المتحدة على سبيل المثال. ومع ذلك، رأت فلسبرغر أن العديد من العناصر التي تثبط أو تشجع إنتاج الذكاء الإصطناعي موجودة بالفعل وأن طريقة حوكمة هذه العناصر الآن ستحدد مستقبل الذكاء الإصطناعي. يتطور مجال الذكاء الاصطناعى بوتيرة سريعة، و حتى لا يتجاوزنا هذا التطورفمن الضروري أن نناقش مواضيع مثل الإنتاج المحلي للذكاء الإصطناعي، وحوكمة البيانات وكذلك حوكمة الذكاء الإصطناعي والأخلاقيات. هذا من شأنه أيضاً أن يسهل المشاركة في النقاشات العالمية حول أخلاقيات الذكاء الإصطناعي والحوكمة.

Two of the most discussed topics in AI governance are accountability and fairness of AI systems. Baher Esmat explained that both accountability and fairness are difficult to achieve due to technological challenges. The behavior of algorithms is often difficult to understand and explain, even for the programmers who develop them. For example, people assume that Facebook is in control over exactly how its algorithms work and, therefore, Facebook should be able to fix any problem easily. In reality, a programmer does not always understand how an algorithm arrives at its conclusion. Algorithms are biased based on the data we give them, clarifies Esmat. He explains that these programs learn how to behave based on data input into the software during a so-called training period. The more complex the task the program was meant to solve and the more data was available, the more unpredictable the resulting algorithm will become. Esmat stressed that regulation and Internet Governance are crucial tools to ensure that these systems benefit and serve the public.

إثنان من أكثر الموضوعات جدلا في مجال حوكمة الذكاء الإصطناعي هما المسائلة والعدالة في أنظمة الذكاء الاصطناعي. أوضح باهر عصمت أنه من الصعب تحقيق المسائلة و العدالة بسبب التحديات التكنولوجية. فغالباً ما يصعب فهم وشرح سلوك الخوارزميات حتى من قبل المبرمجين الذين يطورونها. على سبيل المثال، يفترض الناس أن فيسبوك يتحكم في كيفية عمل خوارزمياته بالضبط، وأن فيسبوك  بالتالي ينبغي أن يكون قادراً على حل أي مشكلة بسهولة. في الواقع،  المبرمج لا يفهم دائماً كيف تصل الخوارزمية إلى نتيجتها. أوضح عصمت أيضاً أن الخوارزميات تصبح متحيزة بناءً على البيانات التي نقدمها لها. كما شرح أن هذه البرامج تتعلم كيفية التصرف بناءً على البيانات المدخلة إلى البرنامج خلال فترة التدريب المزعومة. كلما زاد تعقيد المهمة التي ينبغي على البرنامج إنجازها وكلما زادت كمية البيانات المتوفرة، كلما أصبح من الصعب التكهن بالخوارزمية الناتجة. شدد عصمت على أن التنظيم وحوكمة الإنترنت من الأدوات الأساسية لضمان جدوى هذه الأنظمة وخدمتها لعامة الناس.

However, regulation is not popular among the large technology companies. Except for Microsoft, most companies favor the current situation which allows them to develop standards and practices away from public scrutiny. This established an ongoing dilemma, for all Internet users whose data is collected and used to develop algorithms or sell user-specific advertising information – but who have no control over how this data is used. El-Kassas described this current business model of online companies as surveillance capitalism. He asked how we can avoid the monopolization of data and create a model that benefits both the users and the producers. To answer his question, he explained that there are different ways to produce AI and not all require companies to hoard data indefinitely. Smaller companies are experimenting with and developing technological solutions that allow programs to get to the same results without accessing and storing individual data.

ومع ذلك، فإن التنظيم ليس امر مستحب من جانب الشركات التكنولوجية الكبيرة. فباستثناء شركة مايكروسوفت، تفضل معظم الشركات الوضع الحالي الذي يسمح لها بتطوير المعايير والممارسات بعيداً عن تدقيق العامة. وقد أدى ذلك إلى معضلة مستمرة لجميع مستخدمي الإنترنت الذين يتم جمع بياناتهم واستخدامها لتطوير خوارزميات أو لبيع بيانات شخصية تسهل الاستهداف التسويقي والذين في نفس الوقت ليس لديهم سيطرة على كيفية استخدام تلك البيانات. ووصف القصاص نموذج الأعمال الحالي الخاص بشركات الإنترنت برأسمالية المراقبة. وتسائل كيف يمكننا أن نتفادى إحتكار البيانات وأن نخلق نموذجاً يفيد كل من المستخدمين والمنتجين. في سبيل الاجابة على سؤاله، أوضح أن هناك طرقاً مختلفة لإنتاج الذكاء الإصطناعي، وأن بعض تطبيقات الذكاء الاصطناعي لا تستلزم من الشركات تخزين البيانات إلى أجل غير مسمى. فمثلاً تقوم الشركات الأصغر بتجربة وتطوير حلول تكنولوجية تسمح للبرامج بتحقيق نفس النتائج دون الوصول للبيانات الفردية وتخزينها.

Achieving Inclusion in AI

تحقيق الإحتواء في الذكاء الإصطناعي

In the second round of questions, the panelists discussed different facets of inclusion: what does inclusion in AI mean and what are different ways to achieve greater inclusion in AI? Inclusion in AI is often taken to mean a fairer representation of all societal groups, particularly marginalized ones, in data sets. This means that, for example, facial recognition software should be equally adept at recognizing faces of all races and genders; it is currently not. Today, white cis-men fare much better than any other group. There are life-threatening dangers that result from this data bias: it was recently revealed that self-driving cars are “more likely” to injure people of color as opposed to white people. Felsberger added an A2K4D perspective to this understanding of inclusion. Access to Knowledge (A2K) in its most basic understanding refers to physical access to, for example, a book and to the ability to understand its contents. Following the center’s definition, it also includes the ability to create and share knowledge, to participate in and shape the production of knowledge based on one’s personal context. When applied to inclusion and AI, the A2K4D paradigm takes inclusion beyond the meaning of representation in a database to also mean participation in the creation production of AI.

في الجولة الثانية من الأسئلة، ناقش المشاركون جوانب مختلفة من الشمول: ماذا يعني الشمول فيما يخص الذكاء الإصطناعي وما هي الطرق المختلفة لتحقيق مزيد من الشمول في الذكاء الإصطناعي؟ غالباً ما ينظر إلى الاحتواء في مجال الذكاء الإصطناعي على أنه يمكن أن يتحقق من خلال تمثيل أكثر إنصافاً لجميع الفئات الإجتماعية، خاصةً المهمش منها، في مجموعات البيانات. على سبيل المثال، برامج التعرف على الوجه يجب أن تكون ماهرة بشكل متساوي في التعرف على وجوه الأفراد من جميع الأعراق والأجناس، و هذا الأمر غير متحقق حالياً.  فاليوم، تعتبر قسمات الرجال البيض  ذو الهوية الجندرية المعيارية أفضل بكثير من أي مجموعة أخرى. هناك مخاطر مهددة للحياة تنتج عن هذا التحيز البياناتي: تم الكشف مؤخراً عن أن السيارات ذاتية القيادة يرجح لها أن تصيب بالخطأ ذوي البشرة غير البيضاء أكثر من ذوي البشرة البيضاء. وقد أضافت فلسبرغر منظور A2K4D لهذا التعريف للشمول. فإن اتاحة المعرفة (A2K) في مفهومها الأبسط تشير، على سبيل المثال، إلى الحصول المادي على كتاب والقدرة على فهم محتوياته. بناءً على تعريف A2K4D، فإن مفهوم الشمول يضم أيضاً القدرة على خلق وتبادل المعرفة، وعلى المشاركة في إنتاج المعرفة وصياغتها بناءً على السياق الشخصي لكل فرد. إذا طبقنا هذا المفهوم على موضوع الشمول والذكاء الإصطناعي، فإن الإطار النظري الذي يتبناه A2K4D يأخذ مفهوم الشمول  أبعد من معنى التمثيل في قاعدة بيانات ليشمل أيضا القدرة على المشاركة في إنتاج الذكاء الإصطناعي. 

But how to encourage inclusion; inclusion that goes beyond representation in AI to mean local production of AI that is relevant to the same context? El-Kassas drew from a chapter he co-wrote with Nagla Rizk, Founding Director of A2K4D. The chapter looks at “The Software Industry in Egypt: What Role for Open Source?” and is published in the Access to Knowledge in Egypt book, edited by Nagla Rizk and Lea Shaver. He outlined how the concept of Free Open Source Software (FOSS) works: According to Egypt’s FOSS Strategy, software is free and open source when its “underlying programming source code is freely available to access, modify, and redistribute.” He added that most big players such as Facebook and Google publish their code and software for people to use on their platforms. This is beneficial to them because it means that other people test and improve their software, and it is also useful for those who cannot write algorithms all by themselves. FOSS has, thus, the potential to improve software altogether and provides the possibility for increased participation in the writing of software. It does not, however, allow people to influence the big players in tech or what they do with this powerful software.

لكن كيف لنا أن نشجع الشمول الذي يتجاوز التمثيل في أنظمة الذكاء الإصطناعي ليشمل معنى الإنتاج المحلي للذكاء الإصطناعي الموصول بالسياق نفسه؟ استمد القصاص من فصل كان قد كتبه بالإشتراك مع نجلاء رزق المديرة المؤسسة لمركز A2K4D. الفصل بعنوان “صناعة البرمجيات في مصر: أي دور للمصدر المفتوح؟” وهو فصل منشور في كتاب “إتاحة المعرفة في مصر” من تحرير نجلاء رزق وليا شيفر. أوضح القصاص كيفية عمل مفهوم البرمجيات المجانية ذات المصدر المفتوح: وفقاً لإستراتيجية مصر الوطنية للبرمجيات المجانية ذات المصدر المفتوح (FOSS)، تعتبر البرامج مجانية وذات مصدراً مفتوحاً عندما يكون “مصدر كود البرمجة الأساسي متاحاً بشكل مجاني لمن يريد الوصول له وتعديله وإعادة توزيعه.” وأضاف أن معظم اللاعبين الكبار مثل فيسبوك وجوجل يقومون بنشر الكود والبرامج الخاصة بهم لاتاحتها للمستخدمين على منصاتهم. وذلك يفيدهم لأنه يسمح للمستخدمين بإختبار وتحسين برامجهم، ويفيد في نفس الوقت للذين لا يستطيعون كتابة الخوارزميات بأنفسهم. وبالتالي فإن استراتيجية FOSS لديها القدرة على تحسين مستوى البرمجيات بشكل عام وتوفير إمكانية اعلى على المشاركة في كتابة البرمجيات. ومع ذلك فإن هذه الاستراتجية لا تسمح للناس بالتأثير على اللاعبين الكبار في مجال التكنولوجيا أو على ما يفعلونه بهذه البرمجيات. 

This is where Internet Governance comes in. Esmat asked what lessons could be drawn from  multi-stakeholderism, the principle that underpins internet governance mechanisms, to achieve more inclusion in AI. According to him, there is not one single approach to Internet Governance, but in order to maximize accountability and transparency, multi-stakeholder approaches seek to include as many stakeholders as possible in any policy process or forum. This includes representatives from governments, academia, civil society, human rights organizations, and private businesses across the globe. In addition, there are general principles that characterize multi-stakeholderism that were developed over many years and discussions. For example, one principle is to guarantee that Internet Governance processes are open and inclusive, including those in developing and least developed economies. Another is to develop strategies that ensure transparency and accountability, which means that all involved multi-stakeholders (companies and governments alike) need to all have these measures in place. Esmat also mentioned the need to promote principles such as cultural and language diversity online, respect for human rights, and – echoing El-Kassas – the promotion of open standards, upon which the Internet was originally built. Esmat concluded that the multi-stakeholder model is much more time-consuming than a top-down model, but that over time it has proven itself as the more robust and better approach.

وهنا يأتي دور حوكمة الإنترنت. تسائل عصمت عن الدروس التي يمكن استخلاصها من مبدأ تعدد أصحاب المصالح، وهو المبدأ الذي يدعم آليات حوكمة الإنترنت من أجل تحقيق المزيد من الشمول في أنظمة الذكاء الإصطناعي. وفقاً لرأي عصمت، فإنه لا يوجد نهج واحد لحوكمة الإنترنت، ولكن من أجل زيادة المسائلة والشفافية إلى أقصى حد، يسعى نهج تعدد أصحاب المصالح إلى دمج أكبر عدد من أصحاب المصالح في أي منتديات أو  في عمليات صنع السياسة. ويشمل ذلك ممثلين عن الحكومات والأوساط الأكاديمية، والمجتمع المدني ومنظمات حقوق الإنسان والشركات الخاصة في جميع أنحاء العالم. بالإضافة إلى ذلك، هناك مبادئ عامة تميز نهج تعدد أصحاب المصالح والتي تم تطويرها على مدار سنوات ومناقشات عديدة. فمثلاً، يتمثل أحد تلك المبادئ في ضمان إنفتاح وشمول عمليات حوكمة الإنترنت لتشمل من يعيشون في الإقتصادات النامية والأقل نمواً. هناك مبدأ آخر يقتضي تطوير استراتيجيات تضمن الشفافية والمسائلة، مما يعني أنه على جميع أصحاب المصالح (الشركات والحكومات سواءً) تطبيق هذه الإجرائات.  كما أشار عصمت إلى حاجة تعزيز مبادئ أخرى مثل التنوع الثقافي واللغوي على الإنترنت، وإحترام حقوق الإنسان، و-ترديداً لرأي القصاص- تعزيز المعايير المفتوحة اللتي بنيت على اساسها شبكة الإنترنت في الأصل.  وخلص عصمت إلى أن نموذج تعدد أصحاب المصالح يستهلك الكثير من الوقت مقارنةً بالنموذج التنازلي ولكنه أثبت بمرور الوقت أنه نهج أفضل و أكثر متانةً.  

In conclusion, participants in this session stressed how important democratization is to access to, and production of, technology. They suggested different economic models such as FOSS and international governance approaches to achieve these goals. They agreed that many questions still remain unanswered, especially in the area of liability. If a machine makes a decision with unintended consequences, who will be held responsible for the damage caused? While there are many different answers, we can hope that the multi-stakeholder approach can help us find a common response.

 في الختام، أكد المشاركون في هذه الجلسة على أهمية الدمقرطة من أجل اتاحة وإنتاج التكنولوجيا. و قد اقترحوا نماذج إقتصادية مختلفة مثل FOSS و مثل مناهج الحوكمة الدولية لتحقيق هذه الأهداف. إتفق المشاركون على أن هناك اسئلة عديدة لا تزال دون إجابة، خاصةً في مجال المسؤولية. فإذا أخذت آلة قرار وأتى بعواقب غير مقصودة، من سيتحمل مسؤولية الضرر الناتج؟ في حين أن هناك إجابات كثيرة متباينة لهذا السؤال، إلا أننا نأمل أن يساعدنا نهج تعدد أصحاب المصالح في الوصول إلى إجابة مشتركة.                                                                                            

1 Comment

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Google photo

You are commenting using your Google account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s