Sylwia Jaskuła

0000-0003-2033-5097

Akademia Nauk Stosowanych w Łomży

sjaskula@ansl.edu.pl

Sztuczna inteligencja w edukacji we współczesnej rzeczywistości hybrydalnej

Postępujący rozwój technologii i w konsekwencji rzeczywistości hybrydalnej, łączącej wymiar realny z wirtualnym, wygenerował potrzebę i możliwość wdrożenia edukacji wspomaganej przez sztuczną inteligencję (SI). Zastosowanie SI w procesach kształcenia może w znaczącym zakresie poprawić ich jakość, a także zwiększyć wydajność, szybkość i obniżyć koszty w porównaniu z tradycyjnymi formami. Może wspomagać rozwój kompetencji i umiejętności uczniów poprzez wspieranie ich zindywidualizowanych potrzeb i możliwości. Zbierając dane o indywidualnym uczeniu się, kontekście społecznym, kontekście nauki oraz osobistych motywacjach, może analizować dane dotyczące interakcji w edukacji, które następnie mogą wykorzystywać nauczyciele w procesach nauczania. Choć można wskazać wiele zalet wynikających z wdrażania sztucznej inteligencji do procesów kształcenia, to wykorzystywanie SI w procesach wychowania wzbudza już na obecnym jej etapie stosowania istotne obawy etyczne, moralne czy społeczne. Niepokój dotyczący depersonalizacji i względy etyczne powinny występować na pierwszym planie w dyskusjach dotyczących sztucznej inteligencji w edukacji, podkreślając potrzebę starannego rozważenia zakresu jej wdrożenia.

Głównym celem artykułu jest przedstawienie pozytywnych i negatywnych implikacji wynikających z wdrażania sztucznej inteligencji do edukacji. Analizy tych przeciwstawnych kategorii dokonano na podstawie jakościowej analizy treści.

sztuczna inteligencja, sztuczna inteligencja w edukacji, rzeczywistość hybrydalna, zastosowanie SI w wychowaniu, zastosowanie SI w kształceniu

Artificial Intelligence in Education in the Contemporary Hybrid Reality

The progressive development of technology and, consequently, of hybrid reality, combining the real and virtual dimensions, has generated the need and possibility for education supported by artificial intelligence (AI). The use of AI in education can significantly improve its quality, efficiency, and speed, as well as reduce costs compared to traditional forms. It can support the development of students’ competences and skills by supporting their individual needs and capabilities. By collecting data on individual learning, social context, learning context, and personal motivations, it can analyze interactions in education, which can then be used by teachers in practice. Although many advantages result from the implementation of artificial intelligence in education, it raises significant ethical, moral, or social concerns at the current stage of its use. Concerns about depersonalization and ethical considerations should be at the forefront of discussions around AI in education, highlighting the need to carefully consider the scope of its deployment. The main purpose of the article is to present the positive and negative implications of implementing AI in education. The analysis of these opposing categories was based on qualitative content analysis.

artificial intelligence, artificial intelligence in education, hybrid reality, application of AI in education, application of AI in education

Wstęp

Od czasu rewolucji przemysłowej znaczenie technologii w życiu człowieka wzrasta w postępie geometrycznym, oferując nie tylko nowe rozwiązania wspierające aktywność człowieka, ale coraz częściej zastępujące ją. Wypowiedziane ponad 60 lat temu przez Marshalla McLuhana zdanie, że „technologia dodaje siebie do tego, czym jesteśmy” (McLuhan, 2004, s. 44), współcześnie nabiera nowego znaczenia, szczególnie w kontekście rozwoju sztucznej inteligencji. Postępowi tej ostatniej towarzyszył początkowo zachwyt nad możliwościami szerokiego spektrum zastosowania i wyręczania człowieka w wielu jego aktywnościach. Dzisiaj ta ograniczona wąskim zakresem analiz humanistycznych fascynacja przeradza się w refleksję nad, nie tylko możliwymi do przewidzenia, zagrożeniami generowanymi przez i poprzez SI. Coraz częściej pojawiają się głosy ostrzegające przed jej niekontrolowanym wykorzystywaniem i potrzebami zatrzymania nieweryfikowalnej ekspansji. Już teraz twórcy sztucznej inteligencji głoszą obawy związane z szybkością uczenia się i przyswajania przez nią informacji, której skala jest nieporównywalna do możliwości człowieka. Konsekwencje nienadążania ludzkości za potencjałami sztucznej inteligencji związanymi z tworzeniem nowych danych i ich struktur wiążą się nie tylko z niemożnością ich zrozumienia przez człowieka, ale przede wszystkim z brakiem umiejętności kontrolowania tych procesów. Tym samym można już dzisiaj parafrazować zdanie McLuhana, zastępując je stwierdzeniem, że „technologia zastępuje to, czym (zasadniczo kim) jesteśmy”.

Współczesnym procesom rozwojowym sztucznej inteligencji musi towarzyszyć nie tylko analiza tego, co teraźniejsze, ale również próba określenia zagrożeń, które mogą eskalować w przyszłości. Elementy, które niewątpliwie w sposób ukierunkowany wspierają ludzkie działania, mogą zagubić lub poszerzyć swój cel poza określone przez człowieka granice. I nie będzie to tylko efekt braku odpowiedniego nadzoru, ale nieumiejętność przewidywania możliwych dróg transformacji SI. Sztuczna inteligencja uczy się dzisiaj na informacjach, które wygenerował człowiek, ale przecież ciągle tworzy też na ich podstawie nowe fakty, a za chwilę będzie przetwarzać dane, w których powstawaniu już nie uczestniczył człowiek. Konsekwencji tego procesu nie jesteśmy w stanie przewidzieć, ale niewątpliwie w szybkim tempie będzie powiększać się luka pomiędzy informacjami posiadanymi i przetwarzanymi przez sztuczną inteligencję a tymi, które ma i jest w stanie wykorzystać człowiek. Struktury wytworzone przez SI będą coraz bardziej skomplikowane, a ich zrozumienie przez człowieka, bez pomocy technologii, będzie niemożliwe.

Elementy te mogą i powinny mieć zasadniczy wpływ na wykorzystywanie sztucznej inteligencji w edukacji. Wielu nauczycieli już dzisiaj posługuje się różnorodnymi narzędziami SI przydatnymi w nauczaniu i uczeniu się oraz pomocnymi w przygotowywaniu uczniów na rzeczywistość hybrydalną, a więc taką, która łączy wymiar realny i wirtualny. Sztuczna inteligencja znacznie przyspiesza procesy praktycznego współistnienia tych dwóch połączonych przestrzeni, a jednocześnie pozwala na wzajemne wspieranie procesów zachodzących niezależnie i łącznie w tych wymiarach.

Zastosowanie SI w procesach kształcenia niewątpliwie może poprawić ich zakres i jakość, a także zwiększyć wydajność, szybkość i obniżyć koszty w porównaniu do tradycyjnych form. Może wspomagać rozwój kompetencji i umiejętności uczniów poprzez wspieranie ich w samo ukierunkowaniu się, samoocenie, pracy w zespole. Zbierając dane o indywidualnym uczeniu się, kontekście społecznym, kontekście nauki oraz osobistych motywacjach, może analizować dane dotyczące interakcji w edukacji. Wszechobecne wsparcie, integrujące wiedzę, zachowania społeczne i specyficzne potrzeby osoby mogą zapewnić wirtualni mentorzy dostępni nieustająco dla każdego ucznia. Sztuczna inteligencja może wspierać pracę nauczycieli, czyniąc ją bardziej efektywną i trafnie ukierunkowaną.

Trzeba jednak zdawać sobie sprawę również z negatywnych konsekwencji wprowadzenia sztucznej inteligencji na obecnym etapie jej rozwoju do edukacji. Technologie, w zakresie ich wpływu na socjalizację młodego pokolenia, są badane już od kilkunastu dekad, a wyniki badań pokazują zarówno pozytywne, jak i negatywne strony tych relacji. Jednak obecnie wpływ sztucznej inteligencji na procesy edukacyjne, a jeszcze bardziej na procesy wychowawcze, rodzi ciągle nową listę wyzwań. Sztuczna inteligencja może wspomagać procesy kształcenia poprzez ich indywidualizację, uwrażliwienie na potrzeby i możliwości pojedynczego ucznia, nieograniczoną czasowo dostępność czy możliwość wdrożenia różnorodnych form wsparcia. Z drugiej strony edukacja stymulowana przez sztuczną inteligencję eliminuje wartości charakterystyczne dla tradycyjnej edukacji, takie jak kształtowanie relacji bezpośredniej mistrz – uczeń w kategorii osobowej, rozwijanie komunikacji interpersonalnej, nabywanie kompetencji komunikacyjnych czy uwrażliwienie na wartości humanistyczne. 

Sztuczna inteligencja – wyzwania

Sztuczna inteligencja w samych zamierzeniach jej pomysłodawców miała poprawić i ulepszyć życie człowieka na wielu płaszczyznach. Istotne dla jej postępu było i nadal jest wspieranie kondycji ludzkiej poprzez eliminację chorób, przedłużanie życia ludzkiego, ale także zwiększenie jego możliwości intelektualnych, fizycznych i emocjonalnych. 

Już w latach 50. dokonywano porównań człowieka z maszyną, wskazując na istotne różnice pomiędzy nimi. Uzasadniano, iż człowiek ma nad maszynami przewagę w umiejętności dokonywania dynamicznych zmian planów i form działania, wszechstronności pamięci, oporności na błędy i postępujące uszkodzenia. Z kolei maszyny charakteryzuje większa szybkość, dokładność, moc działania i taniość produkcji (Fitts, 1951). Współcześnie różnice te w istotnym stopniu zanikają na korzyść technologii, a człowiek z niezależnego podmiotu podejmującego decyzje i sterującego pracą przeistacza się w biernego odbiorcę, dodatkowo nieświadomego efektów wyborów dokonanych przez maszynę.

O niebezpieczeństwach tryumfu technologii nad kulturą, a może nawet człowieczeństwem już w latach 90. pisał amerykański filozof, medioznawca i krytyk kultury Neil Postman. Jego poglądy, w tym zakresie, bazowały na teoriach kanadyjskiego teoretyka komunikacji Herberta Marshalla McLuhana. Obu łączyło przekonanie o determinizmie technologicznym, zakładającym, iż postęp techniczny determinuje kierunek rozwoju cywilizacji i kultury, z tym że Postman był technopesymistą. Totalną symbiozę z różnymi aspektami ludzkiego życia nazwał technopolem rozumianym jako podporządkowanie wszelkich form życia kulturowego panowaniu techniki i technologii (Postman, 1995). Jego poszerzony opis umieścił w swojej książce zatytułowanej wprowadzonym nowym określeniem Technopol. Już wtedy zdefiniował w niej społeczeństwo, które obecnie jest kształtowane, dla którego celem ludzkiej pracy jest wydajność, a standardowe procedury, wyliczenia techniczne, mierniki i testy, są pod wieloma względami lepsze niż ludzka ocena. To, czego nie można zmierzyć, nie istnieje, a sprawami ludzi kierują eksperci. Postman ostrzegał przed konsekwencjami przeniesienia tego modelu charakterystycznego dla zakładów produkcyjnych do innych obszarów działalności człowieka, wskazując na zanik kulturowego kontekstu oraz odniesień historycznych czy upadek dotychczasowych systemów wartości i klasycznych symboli. Tym samym świat staje się coraz większą przestrzenią rozwoju techniki, która podejmuje decyzje za człowieka i triumfuje nad kulturą, wypierając istotność ludzi w całym złożonym systemie zależności (Postman, 1995). Postman wskazywał na potrzebę uczenia, w jaki sposób korzystać z technologii i jednocześnie nie być przez nią wykorzystywanym. Podkreślał, że niewłaściwie wykorzystywana i nadzorowana technologia może być niebezpieczna dla człowieka. 

Wizje te wydają się współcześnie coraz bardziej realne. Konfrontacje z techniką nie są możliwe do uniknięcia w żadnej kulturze. Wzrastająca świadomość jednoczesności wspierania, ale i w coraz większym zakresie uprzedmiotowienia przez technikę nie zatrzymuje coraz gwałtowniejszego procesu technicyzacji. Ważne staje się pytanie nie o to, co i ile technika może dawać, ale co i ile może obecnie zabierać. Współcześnie coraz istotniejsze staje się zachowanie równowagi pomiędzy wartościami istotnymi dla jednostki i tymi, które są oczekiwane w kontekście potrzeb szybkiego rozwoju technologicznego. Parametryzacja liczbowa, pozbawiona społecznych kontekstów analiz, staje się coraz częściej obowiązującą normą w coraz liczniejszych obszarach funkcjonowania człowieka. Technika i jej możliwości obliczeniowe wypierają złożone potrzeby jednostek, wskazując najlepsze rozwiązania problemów według standardów preferujących jednoznacznie technologiczne kryteria ich realizacji. Przyjmowany porządek odrzuca kontekst środowiskowy, indywidualizację potrzeb, koncentrując się na technokratycznie rozumianym sukcesie osiąganym w jak najkrótszym czasie, przy jak najmniejszych kosztach.

Krytycznej wizji Postmana dostrzegającej w rozwoju techniki jedynie ciemne strony i zagrożenia towarzyszyły i wciąż towarzyszą również odmienne stanowiska. Alvin Toffler w 1980 r. w Trzeciej fali podkreślił wzrastającą rolę nowych mediów elektronicznych, dostrzegając w nich szansę na lepszą przyszłość. Przekonywał, że zagrożenia, choć liczne, wynikające z przybierania procesów technologicznych nie są całkowicie wyniszczające, a ludzkość posiada różne formy obrony. Jednocześnie zakładał kumulatywny charakter tych zmian (Toffler, 1997). 

To stanowisko bliskie było poglądom McLuhana, który początkowo niechętny technologii pod wpływem lektur prac innych autorów zachwycił się możliwościami maszyn inteligentnych wspomagających ludzi. Zaczął technikę postrzegać nie jako samodzielną siłę (mechaniczną), ale jako fizyczne i mentalne wsparcie człowieka, czasami przedłużenie jego działań. Istotny stał się wzajemny wpływ, a nie „system wzajemnych przymusów między tym, co społeczne, a tym, co materialne” (Maigret, 2012, s. 147). 

Próby regulacji sztucznej inteligencji

Współcześnie coraz częściej analizowane są szanse i zagrożenia związane z rozwojem sztucznej inteligencji. O ile w początkowym okresie jej rozwoju skupiano się na korzyściach wynikających z jej wdrażania, to obecnie coraz częściej podkreśla się negatywne elementy jej wpływu. Te porównawcze analizy uświadomiły, że działania związane z rozwojem sztucznej inteligencji powinny być regulowane i kontrolowane. W czerwcu 2023 r. Parlament Europejski przyjął pierwsze na świecie kompleksowe przepisy dotyczące SI, tzw. akt o sztucznej inteligencji (Parlament Europejski, 2023). W ramach przyjętej strategii transformacji cyfrowej podjęto próbę regulacji działań wdrażających sztuczną inteligencję poprzez ustanowienie standardów, które mają zapewnić lepsze warunki do rozwoju i wykorzystania nowej technologii. Ukierunkowując transformację cyfrową Unii Europejskiej, opracowano program o nazwie „Cyfrowa dekada Europy” (Komisja Europejska, 2022). Sformułowano w nim cele przeobrażeń technologicznych do 2030 r. w obszarach takich jak: bezpieczna i zrównoważona infrastruktura cyfrowa, cyfryzacja usług publicznych, cyfrowa transformacja przedsiębiorstw oraz umiejętności. Dokument ten poprzedzono podpisaniem 15 grudnia 2022 r. deklaracji praw i zasad cyfrowych, które regulują procesy bezpiecznej i zrównoważonej transformacji cyfrowej, wskazując w nich potrzebę ochrony praw człowieka. 

Opracowanie powyższych dokumentów nie byłoby możliwe bez pogłębionej refleksji nad szansami i zagrożeniami, jakie niesie za sobą opracowywanie, wdrażanie i wykorzystywanie sztucznej inteligencji w coraz większej liczbie obszarów aktywności człowieka. Wśród korzyści płynących z rozwoju sztucznej inteligencji Parlament Europejski wymienia wspomaganie następujących podmiotów:

człowieka – poprzez ulepszanie opieki zdrowotnej, zwiększanie systemu transportowego, dostosowywanie produktów i usług do użytkownika, powodując, że są tańsze i bardziej dostępne, uproszczanie dostępu do informacji i edukacji, zmniejszanie zagrożeń poprzez wdrażanie systemów zastępujących człowieka w niebezpiecznych sytuacjach;

firm – poprzez wspieranie rozwoju nowych sektorów produkcji, nowej generacji produktów i usług, poprawianie wydajności i jakości produkcji, zwiększanie oszczędności energii, obsługę klienta i tym samym zwiększanie sprzedaży;

usług publicznych – sztuczna inteligencja może obniżyć koszty i zaoferować nowe możliwości w różnych sektorach, m.in. edukacji, transportu publicznego czy energetyki;

demokracji – zapewnienie dostępu do informacji wysokiej jakości, zapobieganie dezinformacji i cyberatakom, a także wspieranie różnorodności i otwartości poprzez minimalizowanie uprzedzeń w podejmowaniu decyzji na podstawie pogłębionej analizy danych;

ochrony i bezpieczeństwa – poprzez możliwości szybkiego przetwarzania dużej ilości danych, wspomaganie działań zapobiegających przestępczości;

wojska – SI mogłaby być wykorzystywana do obrony i strategii ataku w hakowaniu i phishingu lub do atakowania ważnych systemów w cyberwojnach.

Rosnące uzależnienie od systemów sztucznej inteligencji może generować również zagrożenia, na które wskazał Parlament Europejski:

niepełne wykorzystanie i nadużywanie SI – w pierwszym przypadku wiąże się z potencjalną utratą szans rozwojowych wynikającą z gorszych realizacji programów, z kolei nadmierne wykorzystywanie związane jest z użyciem sztucznej inteligencji w zadaniach, do których się nie nadaje;

odpowiedzialność – wcią? brak ustale? w?zakresie odpowiedzialno?ci za szkody spowodowane przez urz?dzenia lub us?ugi sterowane przez SI;

prawa podstawowe i?demokracja?? sztuczna inteligencja, dzi?ki rozszerzaj?cym si? mo?liwo?ciom ?ledzenia i?ingerencji w?dzia?ania podejmowane przez cz?owieka, mo?e w?powa?nym stopniu zagra?a? prawu do prywatno?ci i?ochrony danych;

miejsca pracy?? od dawna podnoszony problem wyeliminowania przez SI du?ej liczby miejsc pracy;

konkurencja?? mo?liwo?ci, w?zasadzie nieograniczone, gromadzenia danych i?przekszta?cania ich w?informacje, mog? prowadzi? do zak??ce? konkurencji;

zagro?enia bezpiecze?stwa jednostek? aplikacje SI fizycznie powi?zane z?cz?owiekiem, ze wzgl?du na b??dy w?projektowaniu, niew?a?ciwe u?ytkowanie czy pr?by przej?cia przez innych, mog? doprowadzi? do utraty kontroli cz?owieka nad nimi;

transparentno?? informacji?? nier?wno?ci w?dost?pie do informacji mog? by? wykorzystywane przeciwko cz?owiekowi.

ż brak ustaleń w zakresie odpowiedzialności za szkody spowodowane przez urządzenia lub usługi sterowane przez SI;

prawa podstawowe i demokracja – sztuczna inteligencja, dzięki rozszerzającym się możliwościom śledzenia i ingerencji w działania podejmowane przez człowieka, może w poważnym stopniu zagrażać prawu do prywatności i ochrony danych;

miejsca pracy – od dawna podnoszony problem wyeliminowania przez SI dużej liczby miejsc pracy;

konkurencja – możliwości, w zasadzie nieograniczone, gromadzenia danych i przekształcania ich w informacje, mogą prowadzić do zakłóceń konkurencji;

zagrożenia bezpieczeństwa jednostek– aplikacje SI fizycznie powiązane z człowiekiem, ze względu na błędy w projektowaniu, niewłaściwe użytkowanie czy próby przejęcia przez innych, mogą doprowadzić do utraty kontroli człowieka nad nimi;

transparentność informacji – nierówności w dostępie do informacji mogą być wykorzystywane przeciwko człowiekowi.

Dostrzegając wymienione zagrożenia, UNESCO, w wyniku trwającego dwa lata globalnego procesu konsultacji ekspertów, programistów i innych zainteresowanych osób z całego świata, w listopadzie 2021 r. przyjęło przez aklamację 193 państw członkowskich zalecenia w sprawie etyki sztucznej inteligencji. Ustalono m.in. zasady wprowadzania i używania sztucznej inteligencji, które zostały oparte na prawach człowieka. Poza regułami ustalającymi korzystanie ze sztucznej inteligencji zwrócono uwagę na konieczność wyrównywania szans dostępu do SI, a także kontrolowania jej:

Wykorzystanie sztucznej inteligencji nie może wykraczać poza te elementy, które są konieczne do osiągnięcia uzasadnionego celu.

Podmioty działające w dziedzinie sztucznej inteligencji powinny unikać niepożądanych szkód.

Prywatność musi być chroniona przez cały „cykl życia” sztucznej inteligencji, w tym celu niezbędne jest ustanowienie ram ochrony danych osobowych.

Przy wykorzystywaniu danych przez sztuczną inteligencję musi być przestrzegane prawo międzynarodowe i suwerenność narodowa.

Systemy SI powinny być kontrolowalne i identyfikowalne. Należy wprowadzić mechanizmy ich nadzoru oraz audytu, a także oceny skutków ich działalności w sposób zapewniający ochronę praw człowieka.

Etyczne wdrażanie sztucznej inteligencji zapewni jej przejrzystość i wytłumaczalność.

Państwa członkowskie powinny dopilnować, aby systemy SI nie zastępowały ostatecznej odpowiedzialności człowieka.

Technologię SI należy oceniać pod kątem wpływu na „zrównoważony rozwój”, rozumiany jako zbiór stale zmieniających się celów.

Zrozumienie sztucznej inteligencji powinno być promowane poprzez otwartą i dostępną edukację, zaangażowanie obywatelskie, umiejętności cyfrowe i szkolenia z zakresu etyki sztucznej inteligencji, umiejętności korzystania z mediów i informacji.

Podmioty działające w dziedzinie sztucznej inteligencji powinny promować sprawiedliwość społeczną, uczciwość i niedyskryminację, przyjmując jednocześnie integracyjne podejście w celu zapewnienia wszystkim dostępu do korzyści płynących ze sztucznej inteligencji (UNESCO, 2021).

Rezultaty dostarczane przez sztuczną inteligencję zależą od tego, jak została zaprojektowana, jakich użyto w tym celu danych i jaki jest cel jej działalności. Opracowane przez sztuczną inteligencję informacje mogą być celowo lub nieumyślnie tendencyjne. Samo użycie do poszukiwania rozwiązań w złożonej rzeczywistości społecznej tylko danych liczbowych i ich statystycznych reprezentacji może prowadzić do poważnych konsekwencji zagubienia człowieka w odhumanizowanym świecie. Nie oznacza to całkowitego braku możliwości wykorzystania SI. Niewątpliwie jest ona już obecnie i w przyszłości może być jeszcze w wyższym stopniu wykorzystywania w wielu obszarach aktywności człowieka. Potrzebne jest określenie zasad jej projektowania i stosowania, a także nadzorowania. Już dzisiaj twórcy sztucznej inteligencji widzą potrzebę opracowania lepszych i skuteczniejszych niż dotychczas mechanizmów wdrażania sztucznej inteligencji. We wspólnym liście z 2023 r. setki biznesmenów, inwestorów i ekspertów od SI, w tym m.in. Elon Musk, uznając, iż nie jesteśmy jeszcze odpowiednio przygotowani na jej stosowanie i nadzorowanie, wystosowali apel o co najmniej sześciomiesięczną przerwę w rozwoju sztucznej inteligencji. Sygnatariusze ostrzegają przed nieprzewidywalnymi skutkami coraz potężniejszych modeli. W opublikowanym przez ośrodek Future of Life Institute liście jego autorzy wskazują, iż obecny wyścig prowadzony przez laboratoria AI jest niekontrolowany, nie nadążają za nim odpowiednie procesy planowania i zarządzania, co stwarza wiele zagrożeń dla ludzkości (Business Insider, 2023).

Edukacja wspomagana sztuczną inteligencją

Współczesna edukacja niewątpliwie potrzebuje transformacji stymulowanej przez nowoczesne technologie. Rzeczywistość hybrydalna, łącząca wymiar realny i wirtualny, modyfikuje potencjalne procesy i drogi rozwoju całego systemu kształcenia (Jaskuła, 2022, s. 336). Wykorzystywanie nowego dwuwymiarowego świata w coraz szerszym zakresie generuje potrzebę edukacji poprzez przestrzeń wirtualną i do niej. Naturalne samokształcenie się do użytkowania nowego wymiaru obecności człowieka to zbyt mało, żeby w pełni eksploatować możliwości, jakie on oferuje. Sztuczna inteligencja z pewnością może być pomocna w procesie nabywania nowej wiedzy oraz kształtowania postaw i umiejętności pozwalających na pełne wykorzystywanie rzeczywistości hybrydalnej. Stanowić może istotny pomost w rozumieniu i łączeniu działań o zróżnicowanym charakterze, nie tylko tych w wymiarze symbolicznym, podejmowanych jednocześnie w realności i wirtualności. 

Wdrożenie sztucznej inteligencji do edukacji bez wątpienia przeorientuje jej obecne modele. Współczesny system kształcenia, choć stale ewoluuje, jest stosunkowo statyczny. Przygotowuje swoich uczestników do bieżących wymogów rzeczywistości, niestety nie wyprzedzając jej i nie projektując przyszłych kompetencji. Sama forma kształcenia jest niezmienna od wielu lat. Odbywa się głównie w „klasie”, w której jeden nauczyciel uczy wielu uczniów, zazwyczaj uśredniając cele, jakie mają osiągnąć. Sposoby kształcenia również nie są nowelizowane od wielu lat. Pomijany jest fakt, że w szkołach właśnie uczy się pokolenie dzieci, dla których cyfrowy świat istnieje od zawsze. To pokolenie dorastające już w świecie nowoczesnych technologii jest w istotny sposób obecne w wymiarze wirtualnym. Choć podejmowane są próby zmniejszania dystansu pomiędzy narzędziami wykorzystywanymi do nieformalnej edukacji a tymi wykorzystywanymi w sformalizowanym systemie kształcenia, to luka ta jest wciąż zbyt duża.

W tej oczekiwanej modyfikacji systemów edukacyjnych znaczącą rolę może odegrać sztuczna inteligencja, szczególnie w początkowym etapie niwelowania różnic w poziomie umiejętności korzystania z narzędzi technologicznych pomiędzy współczesnymi uczniami a nauczycielami. Systemy komputerowe symulujące ludzkie myślenie mogą być szczególnie pomocne w indywidualizowaniu procesu nauczania czy personalizowaniu materiałów edukacyjnych. Nauczanie spersonalizowane to podejście edukacyjne, którego celem jest dostosowanie procesu uczenia się do indywidualnych potrzeb i mocnych stron uczniów. Aplikacje SI mogą typować materiały dydaktyczne i podejścia dostosowane do poziomu poszczególnych uczniów oraz przewidywać, rekomendować i podejmować decyzje dotyczące kolejnych etapów procesu uczenia się na podstawie analizy potrzeb i możliwości poszczególnych uczniów. Systemy sztucznej inteligencji mogą pomóc uczniom zdobywać wiedzę i umiejętności we własnym tempie, a jednocześnie dostarczać nauczycielom sugestii, w jaki sposób mogą wspierać uczniów w procesie uczenia się.

Takie rozwiązania są już dzisiaj wdrażane eksperymentalnie do placówek edukacyjnych. W Stanach Zjednoczonych firma New Classrooms opracowała program matematyczny Teach to One właśnie w celu spersonalizowania procesów nauczania i uczenia się. Wdrażanie rozpoczęto w 2012 r. w ośmiu szkołach średnich I stopnia w Chicago, Nowym Jorku i Waszyngtonie. W celu zapewnienia kształcenia, które na bieżąco reaguje na umiejętności uczniów, program codziennie oceniał ich poziom osiągnięcia zaplanowanej wiedzy i kompetencji, a następnie na tej podstawie wykorzystywał algorytmy do dostarczania wyselekcjonowanych treści oraz przydzielania uczniów do różnych trybów nauczania. Dodatkowo opracowywane były zindywidualizowane na każdego ucznia instrukcje pracy kierowane do nauczycieli, a także wprowadzano oprogramowanie edukacyjne, takie jak wirtualne korepetycje. Model Teach to One opiera się na danych uzyskiwanych z ciągłej oceny formatywnej w celu zidentyfikowania indywidualnych luk w nauce na mapach opisujących osiągane postępy. Każdego dnia uczniowie uzyskują dostęp do komputerowych pulpitów nawigacyjnych, na których wyświetlane są ich postępy i przedstawiane zadania do pracy nad uzupełnianiem braków w wiedzy i umiejętnościach. Dostarczane są również linki do różnych materiałów edukacyjnych. Ponieważ mapy umiejętności są nieliniowe, uczniowie mogą się poruszać we własnym tempie i rozwiązywać zadania oraz testy w dowolnej kolejności. Iteracja modelu polega na codziennej rekonfiguracji spersonalizowanych ścieżek nauczania i projektowaniu szerszych, dwutygodniowych cykli nauczania. Proces ten zapewnia dostarczanie nauczycielom informacji na temat wyników klasy i uczniów za pośrednictwem dynamicznych pulpitów nawigacyjnych w czasie rzeczywistym, umożliwiając im ukierunkowanie wsparcia procesów uczenia się uczniów w odpowiednim czasie (Vincent-Lancrin i van der Vlies, 2020, s. 7–10).

Sztuczna inteligencja ma również ogromny potencjał, jeśli chodzi o wspieranie uczniów ze specjalnymi potrzebami. Zapewnienie wszystkim bardziej integracyjnego dostępu do edukacji stanowi stałe wyzwanie w większości krajów, szczególnie dotyczy to krajów mniej zamożnych. Edukacja włączająca jest jednym z globalnych wyzwań, której celem jest zapewnienie równego dostępu do wszystkich poziomów edukacji dla wszystkich, w tym osób z niepełnosprawnościami. Systemy sztucznej inteligencji są już skutecznie wykorzystywane w edukacji uczniów z niepełnosprawnością, dzięki umiejętności reagowania na zdolności tych dzieci, zapewniając im wsparcie, dostosowując treści do ich stylów uczenia  się czy monitorując indywidualne motywacje, potrzeby lub tempo uczenia się (Vincent-Lancrin i in., 2020). 

Z drugiej strony sztuczna inteligencja mogłaby również pomagać nauczycielom w planowaniu i projektowaniu zajęć, weryfikując poziom zrozumienia poszczególnych treści przez uczniów. Automatyzowałaby również wypełnianie przez nich zadań administracyjnych takich jak: ocenianie prac, analiza wyników testów i prowadzenie dokumentacji. Wykorzystanie nowoczesnych technologii niewątpliwie powinno zmierzać w kierunku wspierania pracy nauczycieli, a nie w kierunku ich zastąpienia. Na proces wdrażania sztucznej inteligencji do edukacji należy spojrzeć z perspektywy „sztuczna inteligencja i nauczyciel”, a nie „sztuczna inteligencja kontra nauczyciel”. Bezpośrednie relacje z nauczycielem nie są do zastąpienia, ale sztuczna inteligencja może być pomocna w podniesieniu atrakcyjności zajęć, systemów oceniania czy też programów do samodzielnej nauki. 

Choć wdrożenie sztucznej inteligencji do edukacji ma wiele zalet, to wykorzystywanie jej szczególnie w procesach wychowania wzbudza już na obecnym jej etapie stosowania istotne obawy etyczne, moralne czy społeczne. Szybki postęp w produktach i usługach opartych na sztucznej inteligencji stawia przed systemami edukacyjnymi wyzwania związane z odpowiednim ich zrozumieniem, zarządzaniem i integracją. Istnieje potrzeba produktywnego dialogu i zaangażowania w procesy kształtowania rozwoju sztucznej inteligencji w edukacji. Uwagi wymaga rozważenie humanistycznych i społecznych implikacji włączania technologii w kształcenie oraz wychowywanie człowieka, a także analiza związanych z tym zagrożeń. Chociaż pojawia się konsensus co do zakresu korzyści, jakie sztuczna inteligencja może przynieść edukacji, to obok debaty na temat jej zalet powinna się pojawić pogłębiona eksplikacja już ujawniających się, jak i potencjalnych wad wynikających z jej zastosowania. Obawy dotyczące depersonalizacji i względy etyczne powinny występować na pierwszym planie w dyskusjach dotyczących sztucznej inteligencji w edukacji, podkreślając potrzebę starannego rozważenia jej wdrożenia. 

Zakończenie

Uczestnictwo dzieci i młodzieży w świecie wirtualnym, generowanym przez rozwój technologii i mediów elektronicznych, jest przedmiotem edukacyjnych wyzwań, ale przede wszystkim wątpliwości. O ile wykorzystanie technologii w dydaktyce spotyka się z coraz większym entuzjazmem, o tyle wciąż trudno zaakceptować fakt włączania w proces wychowawczy sztucznej inteligencji, która choć coraz bardziej zbliża się pod wieloma względami do człowieka, to wciąż jest odległa od człowieczeństwa. 

Zaawansowana współcześnie antropomorfizacja robotów wykorzystuje iluzje, jakim ulega człowiek w kontakcie z maszynami. Coraz bardziej przekonujące symulacje rodzą wymóg reakcji etycznej (Turkle, 2013, s. 73–74). Roboty wykorzystujące sztuczną inteligencję, zewnętrznie coraz bardziej upodobniane do człowieka, przekonują go do wchodzenia w coraz silniej zaawansowane relacje. Te interakcje, jak wskazywał Francis Fukuyama, mogą zaburzać dotychczasowe procesy kształtowania kompetencji społecznych oraz formułowania poczucia godności ludzkiej (Fukuyama, 2018, s. 42). Sztuczna inteligencja staje się coraz bardziej aktywna, przejmując rolę inicjatora budującego relację pomiędzy nią a człowiekiem. Coraz silniejsza zależność odbiera człowiekowi możliwość krytycznego osądu tych interakcji i konsekwencji z nich wynikających. Quasi-ludzki ich charakter wytwarza szczególny rodzaj więzi między człowiekiem a maszyną, która wspierana jest dzisiaj przez ludzkie emocje. Zerwanie ich, np. poprzez utratę dostępu do urządzenia, wyłączenie prądu czy utratę zasięgu telefonii komórkowej, prowadzi do „cyfrowej rozpaczy” (Łuszczek, 2020, s. 397).

Paradoksalnie na skutek postępu technologicznego konflikt pomiędzy „cybernetycznymi imigrantami” a „cybernetycznymi tubylcami” traci współcześnie coraz bardziej na mocy. Progres techniki pozwala na korzystanie z mediów elektronicznych przy coraz mniejszych kompetencjach technologicznych. Tym samym coraz większemu zaawansowaniu technologicznemu towarzyszą coraz większe możliwości wykorzystywania mediów elektronicznych. Wyrównuje to szansę pomiędzy pokoleniami, pozwalając reprezentantom starszego pokolenia dogonić rzeczywistość wirtualną. Co więcej dotychczasowi „cyfrowi tubylcy” i „cyfrowi emigranci” bardzo się do siebie zbliżyli. Dorosło pokolenie rodziców, dla których przestrzeń wirtualna i technologie są równie istotne jak dla ich dzieci. Coraz trudniej rodzicom dostrzec szkodę rozwojową, która może wynikać z interakcji dziecka z antropomorficzną technologią, a relacje nawiązywane z maszynami są atrakcyjniejsze i łatwiejsze w realizacji. 

Coraz częściej w dysputach podkreśla się niezbędność opracowania zasad i wytycznych regulujących wykorzystanie sztucznej inteligencji w edukacji oraz chroniących prawa i prywatność uczestników tego procesu. Nie wydaje się to rozwiązaniem niwelującym wszystkie potencjalne problemy związane z wykorzystaniem SI w edukacji, jest to jednak niezbędny zabieg wprowadzający pewne techniczne zabezpieczenia przed technologicznymi zagrożeniami. Trzeba jednak zdawać sobie sprawę z tego, że żadne normy ani zakazy nie zabezpieczą wartości humanistycznych związanych z byciem człowiekiem.

Bibliografia

Assange, J., Appelbaum, J., Müller-Maguhn, A. i Zimmermann, J. (2013). Cypherpunks. Wolność i przyszłość internetu, tłum. M. Machnik. Gliwice: Wydawnictwo Helion.

Business Insider (2023). Pozyskano z: https://businessinsider.com.pl/technologie/nowe-technologie/elon-musk-i-setki-biznesmenow-wezwali-do-przerwy-w-rozwoju-sztucznej-inteligencji/me2v3sn#: ~:text=Setki%20biznesmenów%2C%20inwestorów%20i%20ekspertów%20od%20sztucznej%20inteligencji%2C,nieprzewidywalnymi%20skutkami%20wyścigu%20o%20tworzenie%20coraz%20potężniejszych%20modeli. (dostęp: 21.05.2023).

Fitts, P.M. (1951). Human engineering for an effective air-navigation and traffic control system. Washington, DC: National Research Council.

Fukuyama, F. (2018). Identity. The Demand for Dignity and the Politics of Resentment. New York: Farrar, Straus and Giroux.

Jaskula, S. (2022). Rzeczywistość hybrydalna. W: L. Korporowicz, A. Knap-Stefaniuk, Ł. Burkiewicz (red.), Słowniki społeczne. Studia kulturowe. Kraków: Wydawnictwo Naukowe Akademii Ignatianum w Krakowie, 335–352.

Komisja Europejska (2022). Europejska deklaracja praw i zasad cyfrowych. Pozyskano z: https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/europes-digital-decade-digital-targets-2030_pl (dostęp: 10.05.2023).

Łaszczyca, P. (2017). Człowiek i jego maszyny. Operatorzy i protezy. Filo-Sofija, nr 39/4/I.

Łuszczek, K. (2020). Transhumanistyczne wyzwania przyszłości. Wychowanie i edukacja. Studia Koszalińsko-Kołobrzeskie, nr 27.

Maigret, E. (2012). Socjologia komunikacji i mediów, tłum. I. Piechnik. Warszawa: Oficyna Naukowa.

McLuhan, M. (2004). Zrozumieć media. Przedłużenie człowieka, tłum. N. Szczucka. Warszawa: Wydawnictwa Naukowo-Techniczne.

Parlament Europejski (2023). Akt ws. sztucznej inteligencji. Pozyskano z: https://www.europarl.europa.eu/news/pl/headlines/society/20230601STO93804/akt-ws-sztucznej-inteligencji-pierwsze-przepisy-regulujace-ai (dostęp: 10.05.2023).

Postmann, N. (1995). Technopol: Triumf techniki nad kulturą, przeł. A. Tanalska­‑Dulęba. Warszawa: PIW.

Toffler, A. (1997). Trzecia fala. Warszawa: PIW.

Turkle, S. (2013). Samotni razem. Dlaczego oczekujemy więcej od zdobyczy techniki, a mniej od siebie nawzajem, tłum. M. Cierpisz, Kraków: Wydawnictwo Uniwersytetu Jagiellońskiego.

UNESCO (2021). Artificial intelligence. Pozyskano z: https://www.unesco.org/en/artificial-intelligence (dostęp: 21.05.2023)

Vincent-Lancrin, S. i van der Vlies, R. (2020). Trustworthy artificial intelligence (AI) in education: Promises and challenges. OECD Education Working Papers, No. 218. Pozyskano z: https://www.oecd-ilibrary.org/docserver/a6c90fa9-en.pdf?expires=1692575145&id=id&accname=guest&checksum=B4CAEE6177D5E9FD01646EB01DFB82AB (dostęp: 21.05.2023)

Sylwia Jaskuła – profesor Akademii Łomżyńskiej, dziekan Wydziału Nauk Społecznych i Humanistycznych, autor wielu artykułów na temat kultury i rzeczywistości hybrydalnej, edukacji międzykulturowej, przemian w edukacji, ewaluacji rozwojowej, kompetencji międzykulturowych i informacyjnych. Animator badań porównawczych nad kulturowymi i edukacyjnymi aspektami współczesnego społeczeństwa „konceptualnego”. Ekspert w zakresie strategii ewaluacyjnych i programów szkoleniowych w edukacji na rzecz transformacji społecznej, komunikacji i innowacji. Główne prace to: Rzeczywistość hybrydalna. Pomiędzy bytami, Kraków 2022; Ewaluacja społeczna w edukacji, Kraków 2018; Sztuka w służbie edukacji, Warszawa 2010.