Artificial intelligence and early childhood professionals

by | May 18, 2021 | Artificial Intelligence, Child Development, Child Protection | 0 comments

 

للقراءة باللغة العربية انقر هنا

Whether we like it or not, artificial intelligence is almost certainly an inevitability in the future of education. Attempts to design artificially intelligent curriculums for early childhood already exist, such as the MIT-developed “PopBots,” meant to help preschool children interact with social robots to learn AI concepts. However, as research into AI and its application to the education sector expands, we need to consider the readiness of current teachers, and prepare future teachers, for this new reality. 

In the recent past, AI in education may have seemed like a daunting, albeit distant, possibility, but turbulent times have catapulted us to the future.

The time to prepare our teachers to understand, monitor, analyze, and select appropriate AI applications to use in early childhood education, is NOW. 

Teaching young children about what computers or social robots can do is not enough. Teachers will also need to guide children in their understanding about what these machines cannot do. For example, machines are not humans and they are not good at ethical decision making, making moral choices, or applying social-emotional intelligence. These are skills teachers must nurture in children as they will be especially important as children begin to interface more with AI. 

Applications for AI open a myriad of issues and as AI gradually becomes an integral part of education, the following are some considerations future teachers need to keep in mind: 

1) Learn to monitor the use of machine learning in early childhood education.

AI is everywhere, from speech and facial recognition, diagnostic healthcare, machine automation, video games, handwriting analysis, and in many other areas of our lives. Though there are many kinds of AI, teachers should particularly focus on machine learning. 

What is machine learning? 

Machine learning is an application of AI where systems automatically learn and improve themselves from experience without needing additional programming. You give the machine data, and the system uses that data to learn. 

How can machine learning be applied in early childhood education? 

A possible application of this in early childhood education is the iTeddy, an intelligent teddy bear that builds a profile of the child to provide personalized education, which implements AI based on developmentally appropriate practice (DAP). The National Association for the Education of Young Children (NAEYC)’s position statement on DAP states that “every child, from birth to 8, has the right to equitable learning opportunities—in centers, family child care homes, or schools—that fully support their optimal development and learning across all domains and content areas.” One of the core considerations of DAP is that learning experiences should be unique to each child. Educators need to spend time getting to know the child, understanding their family and community, observing them, examining their work, using authentic, valid and reliable assessment methods to know their interests, strengths, personalities, and motivations. 

This consideration is also in line with Lev Vygotsky’s theory of Zone of Proximal Development: finding the “sweet spot” where learning experiences are challenging but achievable. Some believe that something like an iTeddy could help meet this standard, by monitoring the child and providing 1-to-1 tutoring based on the child’s needs. Imagine if iTeddy observed the child over a period of time, and found that he or she has a keen interest in math, and moderate interest in art. Recognizing this “sweet spot,” iTeddy’s AI provides the child with more and more math activities, while limiting the art related ones. In one sense, iTeddy would allow better scaffolding for the child, exposing ideas at a personalized pace and implementing a developmentally appropriate math curriculum to ensure the child is engaged and challenged.

The conern, however, is that the iTeddy might make an incorrect assumption about the psychological profile of the child by comparing the hundreds of thousands of other children with a similar age, developmental stage, and profile. It may also underestimate how humans and their interests change over time, potentially depriving the child of art-related activities in comparison to an increase in math activities. This problem is not unique to AI applications however, as students often get left behind in current learning settings. Their talents and interests may not be properly assessed by parents or teachers or simply the hesitance to try something new may prevent the child from blossoming in a certain area. The question remains, would an AI application like iTeddy open more possibilities for children or limit them?

The iTeddy is just one example of Teachers needing to prepare themselves for various applications of AI within education. Teachers will need to become data scientists; able to understand assessment data generated by AI and monitor its decisions. More than ever, teachers will need to be ready to comment on the developmentally appropriate use of AI applications. 

2) Act as advisors to programmers.

Though difficult to believe, computer scientists developing AI may very well consult teachers and other child development experts for their knowledge and advice. This is because children’s development is a crucial part of artificial intelligence. In 1950, Alan Turing said, “Instead of trying to produce a program to simulate the adult mind, why not rather try to produce one which simulates the child’s.”  Turing believed that the key to true artificial intelligence would be to design a machine with the ability to learn like a human child. Far from the “tabula rasa” traditions, children are a blank slate, the complexity of a baby’s brain and its ability to innately know and to learn still shocks and awes most neuroscientists. 

Roboticists and computer scientists are trying to figure out how to design a machine that has similar learning abilities, but we are still far from such a development. As the pursuit of machine learning continues, computer scientists will undoubtedly turn to experts in the learning process of a child’s incredible mind. In this case, the experts are the educators. 

3) Understand the dark side of neural networks.

As with many cases in technology, including in AI, advances made with positive intentions also often have unforeseen risks. Teachers need to understand the potential dangers that arise from neural networks and how children and adults interact with them in our everyday lives. 

What are neural networks? 

Neural networks are systems in which a programmer aggregates data for a specific set of objectives, and then the network analyzes the information to reach the best conclusion. For example, the app TikTok uses a neural network algorithm with the objective to keep you engaged and make you spend the maximum amount of time on the app. The app feeds you selected posts on a “For You” Page that this neural network believes will maximize the likelihood of achieving its objective. 

However, neural networks work to achieve their objectives without considering broader consequences. For example, the AI of a social media platform could discover a person is attracted to angry, hateful, negative messages. The AI responds by sending that person more angry, hateful messages as they will be more inclined to react and spend even more time on the platform, thereby, achieving the goals of the AI program. However, this is not weighed with the consequence on continually providing someone with anti-social or angry, hateful messages. There are no moral or ethical monitors for the AI program.

Similar corruptions of goals and detrimental effects can arise in neural networks used for education, so we must be careful to actively monitor our own and our children’s engagement level, proactively making choices about what we watch, and what we share with others. 

4) Collaborate in advocating for responsible and ethical use of AI in education.

The Social Dilemma, a recent Netflix documentary-drama, revealed how technology companies have manipulated human psychology and explored some of the dangers of AI in social media. While this is an important topic, discussion about the repercussions of AI use in other contexts, especially education, is vital, and thus far has been sorely lacking. We the professionals, caregivers, advocates, and policy makers, are not talking about this enough and we must become more engaged in these critical conversations. 

We need to hold events, invite all the stakeholders involved, and have open discussions. We can’t let computer scientists be the only ones coming up with ‘metrics’ or objectives for their hidden neural networks, that could do harm or potentially destroy our future generations. 

We can’t do this alone. There must be a cross-disciplinary collaboration between computer scientists, statisticians, ethicists, teachers, early childhood experts, and social scientists all working together to solve these problems. 

5) Ensure that any AI that is used follows acceptable standards.  

Through collaborative action and public discussions, we need to establish standards and ethical guidelines on the use of AI in education, particularly when it comes to use with young children. Young children are vulnerable, and even small experiences can drastically change the trajectory of their development . 

We need to be asking questions like: Who has ownership of the data collected by AI? Who has access to the data? What measures are in place to monitor and protect it? How are AI systems trained? Who trains them? What went into their algorithms? What are the objectives? 

6) Remember our priorities as early childhood educators. 

As the result of an increasingly technologically connected world, citizens are finding it difficult to effectively exercise civic responsibilities in relation to global issues such as climate change, poverty, conflict, and warfare. 

Human capabilities such as ethical reasoning, persuasion, social understanding, and empathy will become more and more prized over the next decade. These functions will become differentiators as artificial intelligence and machine learning start to assume roles that were previously human tasks. Skills in emotional intelligence will become essential to anyone who wants to stay relevant in their field as automated systems proliferate.

We may not want our world to change. We may not be comfortable holding conversations about artificial intelligence. However, if we ignore AI we will not be able to respond appropriately as AI conversations and application in education increase. Artificial intelligence, neural networks, and machine learning could be extremely powerful and effective tools for educators and students alike, but without diligent commitment to ensuring these systems are explainable, fair, robust, transparent, and protective of privacy, the harm they could cause may very easily outweigh the good. We must get engaged and proactive on these topics immediately as educational AI is just starting to take its first steps.

Much like teaching a young child, the choices we make now at the start will have vast repercussions down the line. It’s our duty to ensure those choices are wise, measured, and point us towards a better and more secure future. 

Dr. Samia Kazi is a social entrepreneur, an early childhood education consultant, and specialist. She has worked with international NGO’s government bodies, investment funds, and regional advocacy centers to help improve early childhood systems, policies, and quality assurance systems. Samia founded a leading early childhood teacher training academy in the Middle East, called Arabian Child, and is a global advisor for Global Childhood Academy, the number one hub for training adults who work with and care for children. She also serves as the regional director for the Middle East at Childhood Education International. She is a proud board member of Ellis, an early childhood organization based in Boston, USA – and serves as program committee chair. 

#Artificialintelligence #elearning #onlinelearning #innovation #teachers #robotics #tech #trendsinducation #onlinecourses #e-learning #AI #neuralnetworks #machinelearning #datascience #programming #deeplearning

Additional resources I recommend: 

“What do babies think?” 

TEDx Talk by Alison Gopnik
Professor of Psychology and Affiliate Professor of Philosophy at the Tolman Hall University of California at Berkeley

https://www.ted.com/talks/alison_gopnik_what_do_babies_think  

“An Imminent Threat from Artificial Intelligence”

TEDx Talk by Aidan Gomez
Doctoral student of machine learning at the University of Oxford https://www.ted.com/talks/aidan_gomez_an_imminent_threat_from_artificial_intelligence 

 


الذكاء الاصطناعي في الطفولة المبكرة – ستة أشياء يحتاج المعلمون إلى معرفتها

 

د. سامية القاضي المديرة الإقليمية لمنطقة الشرق الأوسط لشركة CE International ، هي رائدة أعمال اجتماعية ومبتكرة ومنشئة شراكة. عملت كرئيسة تنفيذية لمنظمة رائدة في مجال تعليم الطفولة المبكرة في الشرق الأوسط، تسمى “الطفل العربي”، لدعم تحسين الجودة وحماية الطفل والتعليم في مرحلة الطفولة المبكرة. صنفتها صحيفة هافينغتون بوست كواحدة من أفضل النساء اللاتي يعدن تشكيل تعليم الطفولة المبكرة في الشرق الأوسط. سامية حاصلة على درجة البكالوريوس في الحوسبة التطبيقية، بالإضافة إلى الماجستير والدكتوراه في سياسة التعليم في مرحلة الطفولة المبكرة والقيادة التربوية. تسعى سامية جاهدة لتحقيق التوازن بين حبها للتكنولوجيا والابتكار، وشغفها بالتعليم والرعاية في مرحلة الطفولة المبكرة. وهي مهتمة بشكل خاص بالتخطيط متعدد القطاعات والقائم على نظام لضمان الجودة في السنوات الأولى.

سواء أحببنا ذلك أم لا، فمن شبه المؤكد أن الذكاء الاصطناعي أمر حتمي في مستقبل التعليم. توجد بالفعل محاولات لتصميم مناهج ذكية اصطناعيا للطفولة المبكرة، مثل PopBots التي طورها معهد ماساتشوستس للتكنولوجيا، والتي تهدف إلى مساعدة أطفال ما قبل المدرسة على التفاعل مع الروبوتات الاجتماعية لتعلم مفاهيم الذكاء الاصطناعي. ومع ذلك، مع توسع البحث في الذكاء الاصطناعي وتطبيقه في قطاع التعليم، نحتاج إلى النظر في مدى استعداد المعلمين الحاليين، وإعداد معلمي المستقبل، لهذا الواقع الجديد.

في الماضي القريب، ربما بدا الذكاء الاصطناعي في التعليم وكأنه احتمال شاق، وإن كان بعيدًا، لكن الأوقات المضطربة دفعتنا إلى المستقبل. حان الوقت الآن لإعداد مدرسينا لفهم تطبيقات الذكاء الاصطناعي المناسبة ومراقبتها وتحليلها واختيارها لاستخدامها في تعليم الطفولة المبكرة.

إن تعليم الأطفال الصغار ما يمكن أن تفعله أجهزة الكمبيوتر أو الروبوتات الاجتماعية لا يكفي. سيحتاج المعلمون أيضًا إلى توجيه الأطفال في فهمهم لما لا تستطيع هذه الآلات فعله. على سبيل المثال، الآلات ليست بشرًا وليست جيدة في اتخاذ القرارات الأخلاقية أو اتخاذ الخيارات المعنوية أو تطبيق الذكاء الاجتماعي والعاطفي. هذه هي المهارات التي يجب على المعلمين رعايتها في الأطفال لأنها ستكون ذات أهمية خاصة عندما يبدأ الأطفال في التفاعل بشكل أكبر مع الذكاء الاصطناعي.

تقدم تطبيقات الذكاء الاصطناعي عددًا لا يحصى من المشاكل، وبما أن الذكاء الاصطناعي يصبح تدريجياً جزءًا لا يتجزأ من التعليم ، فيما يلي بعض الاعتبارات التي يحتاج المعلمون في المستقبل إلى وضعها في الاعتبار: تقدم تطبيقات الذكاء الاصطناعي عددًا لا يحصى من المشكلات ، وبما أن الذكاء الاصطناعي يصبح تدريجياً جزءًا لا يتجزأ من التعليم ، فإن ما يلي هو بعض الأشياء التي يجب على معلمي المستقبل مراعاتها:

1) تعلم كيفية مراقبة استخدام التعلم الآلي في تعليم الطفولة المبكرة.

الذكاء الاصطناعي موجود في كل مكان، بدءًا من التعرف على الكلام والوجه والرعاية الصحية التشخيصية والتشغيل الآلي وألعاب الفيديو وتحليل خط اليد وفي العديد من المجالات الأخرى في حياتنا. على الرغم من وجود العديد من أنواع الذكاء الاصطناعي، يجب على المعلمين التركيز بشكل خاص على التعلم الآلي

ما هو التعلم الآلي؟

التعلم الآلي هو أحد تطبيقات الذكاء الاصطناعي حيث تتعلم الأنظمة تلقائيًا وتحسن نفسها من التجربة دون الحاجة إلى برمجة إضافية. أنت تعطي بيانات الجهاز، ويستخدم النظام تلك البيانات للتعلم.

كيف يمكن تطبيق التعلم الآلي في التعليم في مرحلة الطفولة المبكرة؟  

دعونا نفكر في تطبيق محتمل لهذا في تعليم الطفولة المبكرة، والذي سنطلق عليه iTeddy، دمية دب ذكية تبني ملفًا شخصيًا للطفل لتوفير تعليم شخصي، وتنفيذ الذكاء الاصطناعي بالاعتماد على أساس مناسب وتنموي الممارسة (DAP). ينص بيان موقف الجمعية الوطنية لتعليم الأطفال الصغار (NAEYC) على DAP على أن “كل طفل، من الولادة حتى سن الثامنة، له الحق في فرص تعلم عادلة – في المراكز أو دور رعاية الأطفال الأسرية أو المدارس – التي دعم تطويرهم وتعلمهم على النحو الأمثل عبر جميع المجالات ومناطق المحتوى“. أحد الاعتبارات الأساسية لـ DAP هو أن خبرات التعلم يجب أن تكون فريدة لكل طفل. يحتاج المعلمون إلى قضاء بعض الوقت في التعرف على الطفل، وفهم أسرهم ومجتمعهم، ومراقبتهم، وفحص عملهم، واستخدام طرق تقييم موثوقة وصحيحة وموثوقة لمعرفة اهتماماتهم، ونقاط قوتهم، وشخصياتهم، ودوافعهم.

يتماشى هذا الاعتبار أيضًا مع نظرية منطقة التنمية القريبة من Lev Vygotsky: العثور على “المكان المناسب” حيث تكون تجارب التعلم صعبة ولكنها قابلة للتحقيق. يعتقد البعض أن شيئًا مثل iTeddy يمكن أن يساعد في تلبية هذا المعيار، من خلال مراقبة الطفل وتقديم دروس خصوصية فردية بناءً على احتياجات الطفل. تخيل لو لاحظ iTeddy الطفل على مدار فترة من الوقت ووجد أنه مهتم جدًا بالرياضيات واهتمامًا معتدلًا بالفن. إدراكًا لهذه “النقطة الجميلة”، يوفر الذكاء الاصطناعي في iTeddy للطفل المزيد والمزيد من الأنشطة الرياضية مع الحد من الأنشطة المتعلقة بالفن. بمعنى ما، سيسمح iTeddy بسقالات أفضل للطفل، وكشف الأفكار بوتيرة مخصصة وتنفيذ منهج رياضيات مناسب من الناحية التنموية لضمان مشاركة الطفل وتحديه.

ومع ذلك ، فإن القلق هو أن iTeddy قد يقوم بافتراض غير صحيح حول المظهر النفسي للطفل من خلال مقارنة مئات الآلاف من الأطفال الآخرين في نفس العمر ، ومرحلة النمو ، والملف الشخصي. قد يقلل أيضًا من أهمية كيفية تغير البشر ومصالحهم بمرور الوقت ، مما قد يحرم الطفل من الأنشطة المتعلقة بالفن لصالح زيادة الأنشطة الرياضية. هذه المشكلة ليست فريدة بالنسبة لتطبيقات الذكاء الاصطناعي، حيث غالبًا ما يتخلف الطلاب عن إعدادات التعلم الحالية. قد لا يتم تقييم مواهبهم واهتماماتهم بشكل صحيح من قبل الآباء أو المعلمين أو قد يؤدي التردد في تجربة شيء جديد إلى منع الطفل من الازدهار في منطقة معينة. يبقى السؤال، هل سيفتح تطبيق الذكاء الاصطناعي مثل iTeddy المزيد من الاحتمالات للأطفال أم سيحد منهم؟

يعد iTeddy مجرد مثال واحد للمعلمين الذين يحتاجون إلى إعداد أنفسهم لمختلف تطبيقات الذكاء الاصطناعي في التعليم. سيحتاج المعلمون إلى أن يصبحوا علماء بيانات؛ قادرين على فهم بيانات التقييم الناتجة عن الذكاء الاصطناعي ومراقبة قراراته. أكثر من أي وقت مضى، سيحتاج المعلمون إلى الاستعداد للتعليق على الاستخدام المناسب تطوريًا لتطبيقات الذكاء الاصطناعي.

__________________________________________________________

سيحتاج المعلمون إلى أن يصبحوا علماء بيانات؛ قادرين على فهم بيانات التقييم الناتجة عن الذكاء الاصطناعي ومراقبة قراراته. أكثر من أي وقت مضى، سيحتاج المعلمون إلى الاستعداد للتعليق على الاستخدام المناسب تطوريًا لتطبيقات الذكاء الاصطناعي.

__________________________________________________________

2) اعمل كمستشار للمبرمجين

على الرغم من صعوبة تصديق ذلك، قد يستشير علماء الكمبيوتر الذين يطورون الذكاء الاصطناعي المعلمين وغيرهم من خبراء تنمية الطفل لمعرفة ما لديهم من معلومات ونصائح. وذلك لأن نمو الأطفال جزء مهم من الذكاء الاصطناعي. في عام 1950، قال آلان تورينج ، “بدلاً من محاولة إنتاج برنامج لمحاكاة عقل البالغين ، لماذا لا نحاول بدلاً من ذلك إنتاج برنامج يحاكي عقل الطفل.” يعتقد تورينج أن مفتاح الذكاء الاصطناعي الحقيقي هو تصميم آلة لها القدرة على التعلم مثل طفل بشري. بعيدًا عن تقاليد “tabula rasa” ، فإن الأطفال عبارة عن لوحة بيضاء ، وتعقيد دماغ الطفل وقدرته على المعرفة الفطرية وتعلم الصدمات التي لا تزال تثير الذهول لدى معظم علماء الأعصاب.

يحاول علماء الروبوتات وعلماء الكمبيوتر اكتشاف كيفية تصميم آلة تتمتع بقدرات تعليمية مماثلة، لكننا ما زلنا بعيدين عن مثل هذا التطور. مع استمرار السعي وراء التعلم الآلي، سيلجأ علماء الكمبيوتر بلا شك إلى خبراء في عملية التعلم لعقل الطفل المذهل. في هذه الحالة، الخبراء هم المعلمون.

3) فهم الجانب المظلم للشبكات العصبية

كما هو الحال مع العديد من الحالات في مجال التكنولوجيا، بما في ذلك الذكاء الاصطناعي ، غالبًا ما تنطوي التطورات التي تحققت بنوايا إيجابية أيضًا على مخاطر غير متوقعة. يحتاج المعلمون إلى فهم المخاطر المحتملة التي تنشأ من الشبكات العصبية وكيف يتفاعل الأطفال والكبار معها في حياتنا اليومية.

ما هي الشبكات العصبية؟

الشبكات العصبية هي أنظمة يقوم فيها المبرمج بتجميع البيانات لمجموعة محددة من الأهداف، ثم تقوم الشبكة بتحليل المعلومات للوصول إلى أفضل نتيجة. على سبيل المثال، يستخدم تطبيق TikTok خوارزمية شبكة عصبية بهدف الحفاظ على مشاركتك وجعلك تقضي أقصى قدر من الوقت على التطبيق. يغذي التطبيق المنشورات التي حددتها على صفحة “من أجلك” والتي تعتقد هذه الشبكة العصبية أنها ستزيد من احتمالية تحقيق هدفها.

ومع ذلك، تعمل الشبكات العصبية على تحقيق أهدافها دون النظر إلى عواقب أوسع. على سبيل المثال، يمكن أن يكشف الذكاء الاصطناعي لمنصة وسائط اجتماعية أن الشخص ينجذب إلى الرسائل السلبية الغاضبة وإلى الكراهية. يستجيب الذكاء الاصطناعي عن طريق إرسال رسائل غاضبة وبغيضة إلى هذا الشخص لأنه سيكون أكثر ميلًا للرد وقضاء المزيد من الوقت على المنصة، وبالتالي تحقيق أهداف برنامج الذكاء الاصطناعي ومع ذلك، فإن الخوارزمية لا تزن عواقب تزويد شخص ما برسائل معادية للمجتمع أو غاضبة وكراهية. لا يوجد مراقبون أخلاقيون أو أخلاقيون لبرنامج الذكاء الاصطناعي.

يمكن أن تنشأ حالات فساد مماثلة للأهداف والتأثيرات الضارة في الشبكات العصبية المستخدمة في التعليم، لذلك يجب أن نكون حريصين على مراقبة مستوى تفاعلنا ومستوى مشاركة أطفالنا بنشاط ، واتخاذ قرارات استباقية بشأن ما نشاهده وما نشاركه مع الآخرين.

4) تعاون في الدفاع عن الاستخدام المسؤول والأخلاقي للذكاء الاصطناعي في التعليم

كشفت The Social Dilemma، وهي دراما وثائقية حديثة على Netflix، كيف تلاعبت شركات التكنولوجيا بعلم النفس البشري واستكشفت بعض مخاطر الذكاء الاصطناعي في وسائل التواصل الاجتماعي. في حين أن هذا موضوع مهم، فإن المناقشة حول تداعيات استخدام الذكاء الاصطناعي في سياقات أخرى، وخاصة التعليم، أمر حيوي ، وحتى الآن كان ناقصًا إلى حد كبير. نحن – المهنيين ومقدمي الرعاية والمدافعين وصانعي السياسات – لا نتحدث عن هذا بما فيه الكفاية ويجب أن نشارك أكثر في هذه المحادثات الهامة.

نحن بحاجة إلى عقد الأحداث، ودعوة جميع أصحاب المصلحة المعنيين، وإجراء مناقشات مفتوحة. لا يمكننا أن نسمح لعلماء الكمبيوتر بأن يكونوا وحدهم من يتوصلون إلى “مقاييس” أو أهداف لشبكاتهم العصبية المخفية التي يمكن أن تضر أو ​​تدمر أجيالنا المستقبلية.

لا يمكننا القيام بذلك بمفردنا. يجب أن يكون هناك تعاون متعدد التخصصات بين علماء الكمبيوتر والإحصائيين وعلماء الأخلاق والمعلمين وخبراء الطفولة المبكرة وعلماء الاجتماع الذين يعملون جميعًا معًا لحل هذه المشكلات.

5) تأكد من أن أي ذكاء اصطناعي يتم استخدامه يتبع المعايير المقبولة

من خلال العمل التعاوني والمناقشات العامة، نحتاج إلى وضع معايير وإرشادات أخلاقية بشأن استخدام الذكاء الاصطناعي في التعليم، لا سيما عندما يتعلق الأمر باستخدامه مع الأطفال الصغار. الأطفال الصغار ضعفاء، وحتى التجارب الصغيرة يمكن أن تغير مسار نموهم بشكل جذري.

نحتاج إلى طرح أسئلة مثل: من يمتلك البيانات التي يجمعها الذكاء الاصطناعي؟ من لديه حق الوصول إلى البيانات؟ ما هي التدابير المعمول بها لرصدها وحمايتها؟ كيف يتم تدريب أنظمة الذكاء الاصطناعي؟ من يدربهم؟ ما الذي دخل في خوارزمياتهم؟ ما هي الاهداف؟

نحن بحاجة إلى الدعوة إلى:

  • التفسير

يجب أن تكون التكنولوجيا الجديدة، بما في ذلك الذكاء الاصطناعي ، شفافة ويمكن شرحها

  • العدل

إذا تمت معايرته بشكل صحيح، يمكن أن يساعد الذكاء الاصطناعي البشر في اتخاذ خيارات أكثر عدلاً وإنصافًا.

  • الصلابة

نظرًا لاستخدام الأنظمة لاتخاذ قرارات حاسمة، يجب أن يكون الذكاء الاصطناعي آمنًا وقويًا

  • الشفافية

الشفافية تعزز الثقة، وأفضل طريقة لتعزيز الشفافية هي من خلال الكشف

  • الخصوصية

يجب أن تعطي أنظمة الذكاء الاصطناعي الأولوية لخصوصية المستهلكين وحقوق البيانات وتحميها.

6) تذكر أولوياتنا كمعلمين في مرحلة الطفولة المبكرة 

نتيجة لعالم متصل بشكل متزايد من الناحية التكنولوجية، يجد المواطنون صعوبة في ممارسة المسؤوليات المدنية بفعالية فيما يتعلق بالقضايا العالمية مثل تغير المناخ، والفقر والصراع والحرب.

القدرات البشرية مثل التفكير الأخلاقي والإقناع والتفاهم الاجتماعي والتعاطف ستصبح أكثر وأكثر قيمة خلال العقد القادم. ستصبح هذه الوظائف وظائف مختلفة حيث يبدأ الذكاء الاصطناعي والتعلم الآلي في تولي الأدوار التي كانت في السابق مهام بشرية. ستصبح المهارات في الذكاء العاطفي ضرورية لأي شخص يريد أن يظل وثيق الصلة في مجاله مع انتشار الأنظمة الآلية

قد لا نريد أن يتغير عالمنا. قد لا نشعر بالراحة لإجراء محادثات حول الذكاء الاصطناعي. ومع ذلك، إذا تجاهلنا الذكاء الاصطناعي، فلن نتمكن من الاستجابة بشكل مناسب مع زيادة محادثات الذكاء الاصطناعي وتطبيقاته في التعليم. يمكن أن يكون الذكاء الاصطناعي والشبكات العصبية والتعلم الآلي أدوات قوية للغاية وفعالة للمعلمين والطلاب على حد سواء، ولكن بدون الالتزام الدؤوب بضمان أن تكون هذه الأنظمة قابلة للتفسير وعادلة وقوية وشفافة وتحمي الخصوصية، فقد تتسبب بضرر بسهولة جدا تفوق الصالح العام. يجب علينا المشاركة والاستباقية بشأن هذه الموضوعات على الفور حيث أن الذكاء الاصطناعي التعليمي قد بدأ للتو في اتخاذ خطواته الأولى.

إلى حد كبير مثل تعليم طفل صغير، فإن الخيارات التي نتخذها الآن في البداية سيكون لها تداعيات كبيرة في المستقبل. من واجبنا التأكد من أن هذه الخيارات حكيمة ومدروسة وتوجهنا نحو مستقبل أفضل وأكثر أمانًا.

المصادر الموصى بها:

“What do babies think?” TEDx Talk by Alison Gopnik Professor of Psychology and Affiliate Professor of Philosophy at the Tolman Hall University of California at Berkeley https://www.ted.com/talks/alison_gopnik_what_do_babies_ think “An Imminent Threat from Artificial Intelligence” TEDx Talk by Aidan Gomez Doctoral student of machine learning at the University of Oxford https://www.ted.com/talks/aidan_gomez_an_ imminent_threat_from_artificial_intelligence