Co dziś znaczy „AI w szkole”: krótki obraz sytuacji
Najczęstsze typy narzędzi AI dostępne dla nauczycieli
Sztuczna inteligencja w edukacji nie oznacza humanoidalnych robotów chodzących po korytarzach szkoły, tylko zestaw dość przyziemnych narzędzi, które mogą odciążyć nauczyciela z powtarzalnych zadań. Najczęściej spotykane rozwiązania to:
- chatboty i asystenci tekstowi – modele językowe (jak ChatGPT, Gemini, Copilot), które generują teksty, pomysły, zadania, podsumowania, a także pomagają tłumaczyć i parafrazować treści;
- generatory treści multimedialnych – aplikacje tworzące proste grafiki, slajdy, infografiki czy krótkie filmiki na podstawie tekstowego opisu;
- narzędzia do quizów i testów online z funkcjami AI – potrafią automatycznie generować pytania na podstawie wklejonego tekstu lub materiału z podręcznika;
- asystenci językowi – aplikacje, które poprawiają błędy językowe, podpowiadają lepsze sformułowania, tworzą przykłady zdań, dialogi i krótkie teksty użytkowe;
- systemy do analizy wyników – pomagają wychwycić trendy w ocenach, powtarzające się trudności uczniów, przewidywać ryzyko niepowodzeń szkolnych.
Dla większości nauczycieli kluczem jest opanowanie dwóch–trzech prostych narzędzi AI, a nie śledzenie całego rynku nowinek. Lepiej dobrze znać jednego asystenta tekstowego i jedno narzędzie do quizów niż mieć dziesięć kont, z których żadne nie jest wykorzystane na poważnie.
Marketingowa wizja „szkoły przyszłości” a realia polskiej klasy
Reklamy i konferencje o „szkole przyszłości” pokazują czasem wizję, która ma niewiele wspólnego z codziennością. Uczniowie z tabletami, pełna cyfryzacja, automatyczne sprawdzanie wszystkiego, nauczyciel jako „coach” z kubkiem kawy – wygląda to dobrze na slajdzie, ale zwykle rozbija się o:
- przeciążenie podstawą programową i liczbą godzin,
- stary sprzęt lub jego brak,
- nierówny dostęp uczniów do internetu i urządzeń w domu,
- brak czasu na szkolenia z narzędzi cyfrowych,
- obawy prawne (RODO, dane uczniów, odpowiedzialność).
Mit głosi, że „nowe technologie same w sobie unowocześniają szkołę”. Rzeczywistość: AI to tylko kolejna warstwa technologii, dokładnie tak jak kiedyś tablice multimedialne czy e-dziennik. Same z siebie nie rozwiązują problemów z motywacją uczniów, przeładowaną podstawą czy brakiem wsparcia psychologicznego. Mogą jednak uczciwie odjąć trochę pracy papierkowej, urozmaicić lekcje i pomóc lepiej dopasować zadania do uczniów – pod warunkiem sensownego użycia.
Przykłady z polskiej klasy: polski, matematyka, nauczanie wspomagające
W polskich szkołach już teraz sporo nauczycieli korzysta z AI w małej skali – często nawet nie nazywając tego „wdrażaniem strategii AI w szkole”, tylko po prostu „szukaniem ułatwień”. Kilka krótkich obrazków z praktyki:
Nauczycielka języka polskiego tworzy trzy wersje tego samego zadania do czytania ze zrozumieniem: dla klasy dwujęzycznej, dla klasy o mieszanych możliwościach oraz dla grupy uczniów ze specjalnymi potrzebami edukacyjnymi. Z pomocą chatbota prosi o „trzy warianty tekstu o tym samym znaczeniu, ale na różnym poziomie trudności językowej”, a następnie każdy z nich ręcznie poprawia i dostosowuje do realiów kulturowych uczniów.
Nauczyciel matematyki używa AI do generowania dodatkowych zadań tekstowych z procentami czy równaniami, prosząc asystenta o „20 zadań tekstowych dla klasy 7, mieszanka zadań prostych i średnich, każde z innym kontekstem”. Nie przyjmuje wszystkiego bezkrytycznie – usuwa zadania oderwane od życia i poprawia te, w których liczby są zbyt wygodne lub zafałszowują obraz rzeczywistości.
Nauczyciel wspomagający wykorzystuje AI do upraszczania materiałów: wkleja fragment podręcznika i prosi o „wyjaśnienie tego językiem ucznia z trudnościami w czytaniu, poziom klasy 5, krótkie zdania, bez trudnych metafor”. Następnie porównuje oryginał z wersją uproszczoną i dopisuje własne przykłady związane z codziennością danego ucznia.
Podstawy, które nauczyciel musi rozumieć, zanim włączy AI do lekcji
Jak działa generatywna AI w prostym języku
Żeby bezpiecznie korzystać z AI w szkole, nauczyciel nie potrzebuje doktoratu z informatyki, ale kilku podstawowych pojęć. Generatywna sztuczna inteligencja (np. modele językowe) to w dużym uproszczeniu:
- model językowy – program wytrenowany na ogromnych zbiorach tekstu, który „uczy się”, jakie słowa zwykle występują po sobie i w jakich kontekstach;
- przewidywanie kolejnych słów – AI nie „wie”, co jest prawdą; przewiduje, co statystycznie pasuje jako następne zdanie czy akapit;
- halucynacje – sytuacje, gdy model generuje coś, co wygląda wiarygodnie, ale jest po prostu zmyślone, bo nie sprawdza faktów w bazie danych;
- ograniczona pamięć – model nie „pamięta” dawnych rozmów, chyba że trwają w aktualnej sesji, a i tak ma limit długości tekstu, który potrafi analizować naraz;
- brak intencji – AI nie ma przekonań, wartości, empatii; nie rozumie kontekstu wychowawczego, intencji ucznia czy sytuacji rodzinnej.
Dlatego generatory treści świetnie radzą sobie jako maszyna do szkiców, ale są kiepskie jako jedyne źródło wiedzy. Mają ogromny zasięg tematyczny, lecz zerową odpowiedzialność za konsekwencje tego, co wygenerują.
Mit „AI wie wszystko” kontra rzeczywistość
Mit brzmi: „AI wie wszystko, więc lepiej niż nauczyciel wyjaśni uczniowi każde zagadnienie”. Rzeczywistość jest znacznie mniej efektowna: model językowy to świetny „przewidywacz tekstu”, nie nieomylny mędrzec.
Praktyczny problem: uczniowie i część dorosłych traktują odpowiedź AI jak prawdę objawioną, bo jest napisana płynnie, pewnym tonem i bez wahań. To, że AI generuje odpowiedzi w stylu „zdecydowany ekspert”, nie znaczy, że ma rację. Dlatego:
- odpowiedzi AI zawsze wymagają weryfikacji przez nauczyciela – szczególnie przy faktach, datach, nazwiskach, wzorach matematycznych czy przepisach prawa;
- uczniowie powinni dostać prostą zasadę: „Jeśli AI podaje konkretny fakt, który ma trafić do Twojej pracy, sprawdź go w minimum jednym niezależnym źródle (podręcznik, strona instytucji, książka)”;
- AI ma duży problem z aktualnymi informacjami (zmiany w prawie, świeże badania), jeśli model nie został niedawno zaktualizowany lub nie ma dostępu do sieci.
Dobrym ćwiczeniem krytycznego myślenia bywa zadanie: „Poproś AI o wyjaśnienie danego zagadnienia, a potem znajdź w tym minimum trzy nieścisłości lub miejsca, które trzeba doprecyzować”. Nagle okazuje się, że AI jest świetnym materiałem do treningu sceptycyzmu, a nie tylko pomocnikiem do odrabiania lekcji.
AI a wyszukiwarka: dlaczego uczniowie to mylą
Dla wielu uczniów różnica między wyszukiwarką a AI jest zamazana: „i tu, i tu coś wpisuję i coś dostaję”. Tymczasem:
| Cecha | Wyszukiwarka | Model AI (chatbot) |
|---|---|---|
| Źródło odpowiedzi | Lista stron internetowych / dokumentów | Tekst generowany na podstawie wzorców z treningu |
| Weryfikacja | Widzisz źródło, możesz je porównać | Nie widzisz źródeł, lub są podane wybiórczo |
| Aktualność | Zależna od indeksu stron, zwykle dość świeża | Zależna od daty treningu; często opóźniona |
| Styl odpowiedzi | Listy linków, krótkie fragmenty | Spójny, ciągły tekst udający człowieka |
| Ryzyko błędów | Głównie błędne lub nieaktualne strony | „Halucynacje”, czyli zmyślone fakty |
Zadaniem szkoły jest nauczyć, że odpowiedź z AI to punkt wyjścia do myślenia, a nie gotowa prawda. W przeciwnym razie uczniowie będą przesyłać dalej błędne informacje z przekonaniem, że „przecież AI tak powiedziało”.
W tym miejscu przyda się jeszcze jeden praktyczny punkt odniesienia: Rodzic w edukacji przyszłości: jak wspierać dziecko bez kontroli i presji?.
Bezpieczeństwo danych i podstawowe pojęcia
AI w szkole musi być szczególnie ostrożna w jednym obszarze: danych. Publiczne narzędzia AI nie są miejscem na wstawianie:
- pełnych list uczniów,
- dzienników, arkuszy ocen, opinii z poradni, orzeczeń,
- poufnych dokumentów szkoły (np. protokołów rad pedagogicznych),
- informacji, po których łatwo zidentyfikować konkretną osobę.
Zanim nauczyciel zacznie używać narzędzi AI z uczniami, powinien znać kilka pojęć:
- prompt – dokładne polecenie wpisane do AI; im bardziej precyzyjne i kontekstowe, tym lepszy efekt;
- model – konkretna wersja „mózgu” AI (np. GPT-4, inny model od innego dostawcy); modele różnią się możliwościami i kosztami;
- aktualizacja danych – moment, do którego sięga „wiedza” modelu; późniejsze wydarzenia może znać tylko, jeśli ma dostęp do internetu;
- polityka prywatności – opis, co dzieje się z wpisywanymi danymi, czy są używane do dalszego treningu modelu, jak są przechowywane;
- wersje edukacyjne – wielu dostawców oferuje płatne lub bezpłatne wersje z dodatkowymi zabezpieczeniami dla szkół.

Praktyczne zastosowania AI w przygotowaniu lekcji i materiałów
Generowanie konspektów i scenariuszy zajęć
Jednym z najbardziej odczuwalnych ułatwień jest przygotowanie lekcji. AI może pomóc stworzyć pierwszy szkic konspektu czy scenariusza, szczególnie gdy nauczyciel uczy wielu klas i przedmiotów. Klucz tkwi w dobrym „promptowaniu”. Zamiast pisać: „Przygotuj konspekt lekcji o powstaniu styczniowym”, lepiej podać pełniejszy kontekst:
- „lekcja historii, klasa 7 szkoły podstawowej”,
- „czas: 45 minut”,
- „cel ogólny i szczegółowe (np. rozumienie przyczyn i skutków)”,
- „formy pracy: praca indywidualna, praca w parach, krótka dyskusja”,
- „uwzględnij jedno krótkie ćwiczenie aktywizujące na początku i krótką kartę pracy na końcu”.
AI zwróci szkic, który nadal wymaga dopracowania, ale oszczędza czas na wymyślenie podstawowej struktury. Nauczyciel dodaje własne przykłady, lokalne konteksty (np. wątki związane z historią regionu), usuwa elementy nierealne w warunkach jego klasy i dostosowuje język do uczniów.
Tworzenie zadań na różnych poziomach trudności
Dużym plusem AI jest możliwość szybkiego generowania wersji A, B, C tego samego zagadnienia. W praktyce można poprosić:
„Przygotuj 10 zadań z równaniami liniowymi:
- 3 bardzo proste – dla uczniów, którzy dopiero ćwiczą podstawy,
- 4 na poziomie średnim – dla większości klasy,
- 3 trudniejsze, problemowe – dla uczniów szybszych, z elementami tekstu i zastosowania w praktyce.”
Adaptacja materiałów do różnych potrzeb uczniów
Przy większych klasach szczególnie boli jedno: jedni się nudzą, inni toną. Generatywna AI pomaga szybciej „rozwarstwić” ten sam materiał, bez przepisywania wszystkiego od zera. Z jednego tekstu źródłowego można w kilka minut stworzyć kilka wersji:
- wersję uproszczoną językowo – krótsze zdania, mniej metafor, wyjaśnione trudniejsze pojęcia,
- wersję rozszerzoną – z dodatkowymi kontekstami, np. tłem historycznym, ciekawostkami, odniesieniami do innych dziedzin,
- wersję z lukami – do uzupełniania kluczowych pojęć czy dat,
- wersję z pytaniami na zrozumienie treści (pytania zamknięte i otwarte).
W praktyce może to wyglądać tak: nauczyciel wkleja fragment lektury, dopisuje: „Napisz krótszą wersję tego tekstu dla ucznia z trudnościami w czytaniu. Zostaw tylko najważniejsze wątki i bohaterów. Zadbaj, aby zdania były proste i jednoznaczne.” Następnie prosi: „Na podstawie tego tekstu przygotuj pięć pytań sprawdzających zrozumienie – dwa proste, dwa średnie i jedno trudniejsze, otwarte.”
Mit jest prosty: „Dostosowanie materiału zajmuje tyle czasu, że realnie nie da się tego robić na co dzień”. Rzeczywistość: przy wsparciu AI czas schodzi głównie na szybkie przejrzenie i poprawienie wygenerowanej treści, a nie na tworzenie wszystkiego od zera. Dzięki temu indywidualizacja przestaje być pustym hasłem z podstawy programowej.
Materiały wizualne i proste pomoce dydaktyczne
Duży potencjał kryje się także w generowaniu prostych materiałów wizualnych, które dotąd „zjadały” wieczory: tabel, zestawień, krótkich opisów do ilustracji czy infografik. Tekstowe modele AI mogą:
- podsunąć listę kluczowych punktów do infografiki (np. „5 najważniejszych skutków rewolucji przemysłowej”),
- zaproponować opis do osi czasu, schematu, mapy myśli,
- przygotować „ramki” z definicjami pojęć do wklejenia na slajdzie lub do kart pracy,
- wygenerować proste dialogi, komiksy tekstowe czy scenki do odegrania.
Gdy szkoła ma dostęp do generatorów obrazów, da się pójść krok dalej: stworzyć ilustracje do pojęć abstrakcyjnych (np. metafory filozoficzne), wizualizacje procesów („jak powstaje deszcz”, „jak działa algorytm sortowania”), a nawet proste komiksy edukacyjne. Kluczowe ograniczenie: treści powinny być neutralne, pozbawione wizerunków rzeczywistych uczniów i dorosłych, bez wprowadzania danych osobowych.
Nauczyciel zachowuje ster: wybiera, co realnie służy celom lekcji, a co tylko „ładnie wygląda”. AI bywa tu jak nieco nadgorliwy stażysta – podsuwa masę pomysłów, ale ktoś doświadczony musi odsiać to, co rozprasza zamiast uczyć.
Przygotowanie zróżnicowanych kartkówek i powtórek
Stres przed kartkówką dobrze widać nie tylko u uczniów. Przy większej liczbie klas nauczyciel nie chce, aby zadania wyciekły z jednej grupy do drugiej, a jednocześnie nie ma siły robić pięciu wersji zadań. AI pozwala szybciej stworzyć kilka równoważnych zestawów:
- prośba: „Na podstawie tego zestawu zadań stwórz trzy wersje sprawdzające te same umiejętności, z innymi liczbami / przykładami, ale podobnym poziomem trudności”,
- dopisanie kryteriów: „Zachowaj ten sam rozkład punktów, rodzaje zadań (wybór wielokrotny, krótkie odpowiedzi, zadania z luką) oraz czas rozwiązania ok. 15 minut”.
Podobnie da się wygenerować „pakiety powtórkowe”: zestawy zadań do pracy domowej czy przed sprawdzianem, zróżnicowane tematycznie i stopniem trudności. Zamiast jednej sztywnej listy pytań powstają trzy warianty – dla ucznia, który ledwo „ciągnie”, dla przeciętnego oraz dla ambitnego, który chce się przygotować do konkursu.
Wbrew obiegowemu przekonaniu nie chodzi o to, by AI „robiła sprawdziany za nauczyciela”. Rzeczywistość jest bardziej przyziemna: narzędzie odwala monotonną część pracy (przepisywanie, zmiana danych, tworzenie kolejnej wariacji), a nauczyciel pilnuje merytoryki i poziomu.
Wspieranie ucznia w powtórkach – fiszki i quizy
AI bywa też wsparciem przy tworzeniu krótkich materiałów do samodzielnego powtarzania: fiszek, quizów, krzyżówek. Dobrze sprawdza się schemat:
- Nauczyciel wkleja listę pojęć lub krótkie streszczenie działu.
- Prosi: „Przygotuj fiszki: po jednej stronie pojęcie, po drugiej – definicja dla ucznia z klasy 6. Język prosty, bez zbyt wielu szczegółów”.
- Następnie generuje quiz: „Na podstawie tych fiszek przygotuj 15 pytań testowych z czterema odpowiedziami, zaznacz poprawne”.
Takie materiały można łatwo przenieść do aplikacji typu quizowych lub wydrukować. Uczniowie zyskują narzędzie do samodzielnej pracy, a nauczyciel nie musi co tydzień wymyślać od zera nowych pytań. Jeśli uczeń ma dostęp do AI, może sam poprosić o dodatkowe przykłady czy ćwiczenia z określonego zagadnienia – pod warunkiem, że wcześniej dostał instrukcję, jak formułować polecenia i jak sprawdzać odpowiedzi.
AI jako asystent w ocenianiu: realne wsparcie i granice bezpieczeństwa
Wstępne sprawdzanie krótkich wypowiedzi
Najbardziej oczywista pokusa: „niech AI poprawia wypracowania”. Tymczasem bezpieczniejszym startem jest wykorzystanie narzędzi AI do krótkich form i do własnej wstępnej orientacji, a nie do wystawiania ocen.
Przy zadaniach typu „krótka odpowiedź” (1–3 zdania) nauczyciel może:
- wkleić kilka anonimowych wypowiedzi uczniów (pozbawionych danych osobowych),
- opisać kryteria: „Odpowiedź ma zawierać definicję, przykład i jedno zdanie wyjaśniające”,
- poprosić: „Przeanalizuj, czy odpowiedzi zawierają te trzy elementy. Nie wystawiaj ocen, tylko zaznacz brakujące elementy”.
AI zwróci syntetyczną informację typu: „Odpowiedź 1 – brak przykładu; Odpowiedź 2 – jest definicja i przykład, brakuje wyjaśnienia”. To nie jest gotowy dziennik z ocenami, ale drogowskaz, który ułatwia szybkie zorientowanie się, gdzie są powtarzające się braki w klasie. Nauczyciel nadal sam decyduje, jak ocenić prace.
Formułowanie komentarzy zwrotnych
Najwięcej czasu w ocenie kształtującej zabierają nie punkty, lecz komentarze. AI może pomóc w dwóch obszarach:
- przekład kryteriów na prosty język,
- generowanie wariantów sformułowań feedbacku.
Przykładowy schemat pracy:
- Nauczyciel określa kryteria: „oceniam strukturę tekstu, poprawność językową, zgodność z tematem, argumentację”.
- Wkleja fragment pracy ucznia – znów bez danych identyfikujących.
- Prosi: „Na podstawie tych kryteriów napisz krótki komentarz zwrotny (3–4 zdania) dla ucznia ósmej klasy. Zachowaj życzliwy, zachęcający ton, wskaż 1–2 mocne strony i 2 konkretne obszary do poprawy”.
Otrzymany komentarz warto skrócić, dostosować do języka klasy i własnego stylu – ale punkt wyjścia już jest. Zamiast pisać 25 podobnych zdań „uważaj na…”, nauczyciel wybiera, edytuje, dopasowuje do konkretnej pracy.
Mit, który powraca: „Skoro AI może napisać komentarz, to właściwie ocena jest już załatwiona”. W praktyce dopiero ludzka decyzja, które informacje podkreślić, jak je zbalansować, czy w ogóle w danej sytuacji komentować szczegółowo – nadaje temu sens wychowawczy. AI nie zna historii ucznia, jego wysiłku, kontekstu rodzinnego. Tych elementów nie da się „dopromptować”.
Rubryki, checklisty i kalibracja oceniania
Ciekawy obszar wsparcia to przygotowanie i doprecyzowanie kryteriów oceniania. AI może pomóc „przetłumaczyć” ogólne zapisy z podstawy programowej na konkretne rubryki i checklisty:
- „Na podstawie tej podstawy programowej przygotuj tabelę kryteriów oceny wypracowania argumentacyjnego w klasie 8: kolumny – poziom wysoki, średni, niski; wiersze – argumentacja, struktura, styl i język, poprawność merytoryczna”.
- „Dla każdego poziomu wpisz krótkie, zrozumiałe dla ucznia sformułowania”.
Następnie nauczyciel sprawdza, skraca, dostosowuje. Efekt końcowy to rubryka, którą można udostępnić uczniom przed zadaniem i realnie odnieść się do niej przy ocenianiu. AI można też poprosić, by na podstawie kilku opisów prac przygotowała propozycję „skalibrowania” – np. wskazała, czym różni się praca „na 3” od „na 5” według podanych kryteriów. Nie chodzi o to, by ufać tym propozycjom bezkrytycznie, lecz by mieć punkt wyjścia do rozmowy na radzie przedmiotowej.
Czego AI nie powinna robić przy ocenianiu
Są obszary, gdzie oddanie steru maszynie jest zbyt ryzykowne – prawnie, etycznie i wychowawczo. Szczególnie wrażliwe jest:
- wystawianie ocen końcowych na podstawie automatycznej analizy prac,
- podejmowanie decyzji o promocji, skierowaniu na egzaminy poprawkowe, przydziale do klas rozszerzonych,
- diagnozowanie „braku zdolności”, „lenistwa” czy „braku motywacji” na podstawie stylu wypowiedzi ucznia.
Model językowy widzi tylko tekst, nie widzi drogi, jaką uczeń przebył, ani kontekstu lekcji. Nie rozróżnia, czy ktoś popełnił błąd, bo jest po prostu zmęczony po chorobie, czy od miesięcy ignoruje wszystkie zadania. Dlatego AI może wspierać nauczyciela w analizie, lecz nie może go zastąpić w decyzjach, które często są przedmiotem odwołań, rozmów z rodzicami, opinii poradni.
Prawny kontekst wykorzystywania danych uczniów online jest złożony. W tle pojawiają się zagadnienia znane choćby z dyskusji wokół Bezpieczeństwo w zdalnej edukacji: RODO, nagrania i zgody rodziców, tylko teraz w wersji „AI”. Szkoła musi mieć jasne procedury, zanim zacznie masowo wprowadzać nowe narzędzia.
Wykrywanie plagiatu i prac pisanych przez AI – chłodniejsze spojrzenie
Na rynku szybko pojawiły się „detektory AI”, obiecujące wskazanie, czy tekst napisał człowiek, czy model językowy. Kusi, żeby kliknąć i mieć sprawę z głowy. Problem w tym, że te narzędzia są zawodne: często wskazują teksty uczciwych uczniów jako „podejrzane”, a sprytne przeredagowanie pracy przepuszczają bez zastrzeżeń.
Rozsądniejsze podejście to traktowanie takich detektorów tylko jako sygnału ostrzegawczego, a nie „wyroczni”. Jeżeli nauczyciel widzi pracę kompletnie niezgodną ze zwykłym poziomem ucznia, lepiej:
- porozmawiać z uczniem,
- poprosić o ustne wyjaśnienie kluczowych fragmentów,
- zlecić krótkie zadanie kontrolne na lekcji.
Mit brzmi: „Da się zbudować niezawodny wykrywacz prac pisanych przez AI”. Rzeczywistość: zawsze będzie margines błędu, a poleganie wyłącznie na maszynie pogłębia nieufność między szkołą a uczniami. Dużo ważniejsze jest tak projektować zadania, by opłacało się pracować samodzielnie, a nie szukać skrótów.
Wykorzystanie AI bez „produkcji leni”: prace domowe, projekty, samodzielność
Redesign zadań domowych w epoce AI
Klasyczne zadanie typu „Napisz referat o życiu Mickiewicza” w połączeniu z generatywną AI działa jak zaproszenie: „skopiuj gotowiec”. Zamiast walczyć z rzeczywistością, łatwiej ją uwzględnić i przeprojektować zadania. Skuteczniejsze bywają prace, w których:
- uczeń musi odnieść się do własnych doświadczeń („Jakie cechy Konrada widzisz w dzisiejszych bohaterach filmów / gier, które znasz?”),
- pojawią się lokalne odniesienia („Porównaj opis wsi w „Chłopach” z Twoją miejscowością / okolicą”),
- trzeba zebrać dane w terenie („Przeprowadź krótką ankietę w domu / w klasie i opisz wyniki”),
- zadanie zawiera element twórczy, trudniejszy do wygenerowania „z automatu” (np. zaprojektowanie plakatu, scenki, gry).
W takich pracach AI może co najwyżej pomóc w uporządkowaniu wniosków czy korekcie językowej, ale nie zrobi wszystkiego za ucznia, bo nie zna jego rodziny, szkoły ani realnego otoczenia. To właśnie tego typu zadania ograniczają sens „oddawania” gotowych tekstów napisanych przez model.
Jasne zasady korzystania z AI przy pracach domowych
Chaos rodzi się tam, gdzie brakuje zasad. Zamiast udawać, że uczniowie i tak nie użyją AI, lepiej otwarcie ustalić reguły:
Kontrakty klasowe dotyczące AI
Zasady najlepiej ustalać wspólnie. Prosty „kontrakt klasowy” dotyczący korzystania z AI może zmniejszyć napięcie i nieporozumienia. Zamiast listy zakazów bardziej działa umowa, w której uczniowie mają swój głos. Przykładowe elementy takiego kontraktu:
- Co wolno: korzystanie z AI do sprawdzania pisowni, szukania inspiracji, próby zrozumienia trudnego pojęcia – pod warunkiem, że uczeń potrafi własnymi słowami wyjaśnić treść.
- Co jest ograniczone: generowanie całych wypracowań, rozwiązań zadań domowych krok po kroku bez próby samodzielnego zmierzenia się z tematem.
- Jak oznaczamy wsparcie AI: np. krótką adnotacją na końcu pracy: „Korzystałem z AI do: korekty językowej / znalezienia przykładu / sprawdzenia definicji”.
- Co się dzieje przy nadużyciach: jasna, przewidywalna ścieżka – rozmowa, praca kontrolna, poprawa zadania, zamiast od razu „oskarżeń o ściąganie”.
Mit bywa taki: „Jeśli damy uczniom zielone światło na AI, przestaną się uczyć”. W praktyce bardziej demotywuje nieprzewidywalność: raz praca z AI jest „genialna”, innym razem „do poprawy, bo ściągałeś”. Jasne zasady obniżają ryzyko konfliktów i pozwalają skupić się na rozwoju umiejętności.
Zadania „odporne na kopiuj–wklej”
Są typy prac, przy których użycie AI staje się po prostu mało opłacalne. Łączą kilka elementów naraz: odniesienie do lekcji, do konkretnej klasy i do osoby ucznia. Tak można „usztywnić” zadania:
- Odwołanie do przebiegu lekcji: „Napisz krótką notatkę z dzisiejszej debaty w klasie: podaj min. 2 argumenty strony A i 2 argumenty strony B, które naprawdę padły na lekcji. Dodaj własny komentarz, z czym się zgadzasz i dlaczego”.
- Powiązanie z pracą w grupach: „Opisz swoje zadania w projekcie grupowym, napisz, co poszło dobrze, a co należy usprawnić przed kolejną prezentacją”.
- Mini-dziennik uczenia się: „Po zakończeniu rozdziału z fizyki napisz 5–7 zdań: co było dla Ciebie najtrudniejsze, jak sobie z tym poradziłeś i jakich błędów nie chcesz powtarzać”.
AI może pomóc uczniowi poprawić styl albo uporządkować wypowiedź, ale nie odtworzy konkretnej dyskusji z lekcji ani indywidualnego przeżycia. Jeżeli zadanie jest silnie osadzone w klasowej rzeczywistości, kopiowanie „gotowców z internetu” przestaje się opłacać.
Uczenie uczniów „mądrego korzystania” z AI
Jeżeli szkoła oczekuje samodzielności, musi też nauczyć, jak korzystać z narzędzi zamiast się od nich uzależniać. Dobre ćwiczenie na godzinie wychowawczej albo przedmiocie może wyglądać tak:
- Uczniowie próbują rozwiązać krótkie zadanie samodzielnie.
- Następnie mogą użyć AI, by sprawdzić i ulepszyć swoją odpowiedź.
- Na koniec porównują obie wersje i zapisują, co sami zrobili dobrze, a czego nauczyli się z podpowiedzi modelu.
W ten sposób AI staje się „drugą parą oczu”, a nie autorem pracy. Warto czasem celowo pokazać uczniom, że model się myli: poprosić go o rozwiązanie zadania, a klasę poprosić o znalezienie błędów. To dobry trening krytycznego myślenia i sygnał, że bezrefleksyjne kopiowanie może być po prostu niebezpieczne.
Projekty z obowiązkowym „logiem pracy”
Przy dłuższych projektach uczniowie często korzystają z wielu źródeł naraz – i z internetu, i z AI. Zamiast udawać, że tego nie ma, można wprowadzić „log pracy”, czyli bardzo krótką dokumentację procesu. Może to być osobna kartka, slajd na końcu prezentacji lub sekcja w zeszycie.
Przykładowe pytania do takiego logu:
- Czego szukałeś w AI? Wypisz 2–3 najważniejsze pytania lub polecenia, które wpisałeś.
- Jak wykorzystałeś odpowiedzi? Co przepisałeś, co przerobiłeś, co odrzuciłeś i dlaczego?
- Jakie informacje sprawdziłeś w innych źródłach (podręcznik, książka, rozmowa z kimś)?
Uczeń, który musi pokazać, jak pracował, ma mniejszą pokusę, by „oddać wszystko z AI”. A nauczyciel zyskuje wgląd w to, jak uczniowie naprawdę korzystają z narzędzi i gdzie brakuje im kompetencji informacyjnych.
AI jako „trener” samodzielnych umiejętności
Wbrew obawom, przy odpowiednim użyciu AI może wręcz wzmacniać samodzielność. Chodzi o takie scenariusze, w których uczeń nie dostaje gotowej odpowiedzi, lecz wsparcie krok po kroku.
Przykładowe pomysły:
- Nauka pisania: uczeń wkleja swój tekst i prosi o wskazanie trzech fragmentów, które można skrócić lub uprościć. Potem sam decyduje, jak je poprawić, a nie przyjmuje automatycznej przeróbki.
- Matematyka: zamiast „podaj wynik i obliczenia”, uczeń prosi: „Zadaj mi podobne zadanie, ale trochę prostsze, i naprowadzaj pytaniami, nie pokazuj od razu całego rozwiązania”.
- Języki obce: dialog z AI w roli rozmówcy, ale z prośbą: „Poprawiaj tylko błędy, które utrudniają zrozumienie, na końcu wypisz 3 najczęstsze moje błędy z krótkim wyjaśnieniem po polsku”.
Różnica jest subtelna, ale kluczowa: AI nie wykonuje pracy za ucznia, lecz zapewnia natychmiastowy feedback i dodatkowe ćwiczenia. To trochę jak korepetytor, który nie rozwiązuje zadań, tylko je dobiera i komentuje.
Prace domowe z wbudowaną refleksją nad użyciem AI
Dobrym nawykiem jest dodawanie jednego krótkiego pytania refleksyjnego do części zadań domowych, szczególnie w starszych klasach. Przykłady takich pytań:
- Czy korzystałeś z AI przy tym zadaniu? Jeśli tak – w czym pomogła, a z czym nadal miałeś trudność?
- Jakie jedno polecenie do AI zadziałało najlepiej, a które okazało się mało przydatne?
- Co z odpowiedzi AI uznałeś za błędne lub podejrzane? Jak to sprawdziłeś?
To zajmuje 1–2 minuty, a uczy uczniów, że AI nie jest ani zakazanym „dopalaczem”, ani wszechwiedzącym guru, lecz narzędziem, nad którym trzeba panować. Dla nauczyciela to przy okazji drogowskaz, kto używa AI w sposób świadomy, a kto traktuje je jak magnes do gotowców.
Indywidualizacja zadań przy użyciu AI
Przy dużych różnicach w poziomie klasy AI może pomagać w szybkiej modyfikacji zadań domowych. Nauczyciel przygotowuje bazowy zestaw, a potem prosi model o trzy warianty trudności: podstawowy, rozszerzony i „treningowy” dla ucznia z trudnościami.
Przykład z matematyki:
- Wersja bazowa: kilka standardowych zadań na obliczanie procentów.
- Wersja treningowa: te same typy zadań, ale z prostszymi liczbami i rozpisanymi podpowiedziami krok po kroku (bez wyników).
- Wersja rozszerzona: zadania problemowe z procentami w kontekście codziennym, wymagające własnego opisania toku rozumowania.
Uczeń nie widzi, że zadania powstały z pomocą AI – widzi tylko, że dostał „właściwy” poziom trudności. W ten sposób narzędzie pomaga nauczycielowi, a dla ucznia liczy się nadal realny wysiłek włożony w rozwiązanie.
Rozmowa o odpowiedzialności i uczciwości akademickiej
Jeżeli szkoła korzysta z AI, temat uczciwości nie może ograniczać się do straszenia „wykrywaczami”. Uczniowie powinni usłyszeć, dlaczego oszukiwanie z pomocą AI szkodzi przede wszystkim im: tracą okazję do przećwiczenia umiejętności, z którymi później będzie naprawdę trudno na egzaminie czy w pracy.
Pomaga odwołanie do realnych sytuacji:
- Uczeń, który „zaliczał” angielski na AI, a potem ma problem na rozmowie kwalifikacyjnej, gdzie nie ma dostępu do żadnego urządzenia.
- Student, który przyzwyczaił się do generowania gotowych prac, a na egzaminie pisemnym nie umie zbudować prostego argumentu od zera.
Takie przykłady brzmią inaczej niż ogólne „nie wolno ściągać”. Dobrze połączyć je z pokazaniem pozytywnej strony: „Jeśli nauczysz się używać AI do sprawdzania swoich pomysłów i szukania błędów, możesz szybciej się rozwijać i pewniej wejść na studia czy rynek pracy”.
Wsparcie rodziców w sensownym korzystaniu z AI
Coraz częściej uczniowie korzystają z AI w domu, w sposób, którego nauczyciel nie widzi. Rodzice z kolei często nie wiedzą, jak reagować: jedni zakazują wszystkiego, inni bezrefleksyjnie chwalą „sprytne” użycie narzędzi.
Krótka informacja dla rodziców, np. na zebraniu lub w dzienniku elektronicznym, może wyjaśnić:
- do czego uczniowie mogą używać AI (np. powtórka materiału, generowanie dodatkowych przykładów, tłumaczenie trudnych pojęć),
- co w kontekście szkoły uważa się za nadużycie (oddawanie prac w całości generowanych),
- jak rodzice mogą wspierać: np. zachęcać dziecko, by najpierw spróbowało samo, a AI traktowało jak „drugie źródło”, nie pierwszy odruch.
Mit, z którym często mierzą się nauczyciele, brzmi: „Dzieci i tak znają się na technologii lepiej, więc szkoła nie ma tu nic do powiedzenia”. Tymczasem doświadczenie pokazuje, że uczniowie świetnie obsługują aplikacje, ale niekoniecznie rozumieją mechanizmy działania modeli, ich ograniczenia i ryzyka. To właśnie obszar, w którym szkoła może realnie pomóc rodzinom.
AI w projektach międzyprzedmiotowych
Najciekawsze zastosowania pojawiają się tam, gdzie znikają sztywne granice między przedmiotami. Prosty przykład: projekt łączący geografię, informatykę i język polski. Uczniowie mają opisać wybrany region świata, przygotować prezentację i krótką notkę informacyjną.
AI można w takim projekcie włączyć w kilku miejscach:
- jako pomoc przy wyszukiwaniu źródeł (z zaznaczeniem, że informacje trzeba porównać z atlasem, podręcznikiem lub wiarygodnymi stronami),
- jako wsparcie przy ułożeniu struktury prezentacji i podpowiedzi do slajdów,
- jako narzędzie do ćwiczenia wystąpienia ustnego: uczeń może poprosić o serię pytań, które publiczność mogłaby zadać po prezentacji.
Rzecz jasna, nauczyciele kilku przedmiotów muszą się tu dogadać, aby kryteria oceny były spójne: ile wagi mają treści merytoryczne, ile umiejętność prezentacji, a ile refleksja nad korzystaniem z AI. Dzięki temu uczeń dostaje sygnał, że technologie nie są „dodatkiem do informatyki”, ale czymś, co przenika różne obszary nauki.
Coraz częściej także dyrektorzy szukają inspiracji w miejscach, które łączą technologię z praktyką, takich jak Innowacje w Edukacji, bo samo hasło „AI w szkole” nie wystarcza – liczą się konkretne scenariusze użycia w realnych warunkach.
Rozwijanie „meta-umiejętności” w pracy z AI
Na końcu i tak liczą się kompetencje, które pozostaną aktualne niezależnie od tego, jak zmienią się narzędzia. AI w szkole może być pretekstem do ćwiczenia kilku kluczowych umiejętności:
- Formułowanie jasnych poleceń i pytań – czyli coś między myśleniem krytycznym a komunikacją. Uczeń, który potrafi zadać sensowne pytanie AI, zwykle potrafi też lepiej pytać nauczyciela czy kolegów.
- Weryfikowanie informacji – sprawdzanie źródeł, porównywanie odpowiedzi z podręcznikiem, dostrzeganie sprzeczności.
- Refleksja nad własnym uczeniem się – zauważanie, w czym AI naprawdę pomaga, a gdzie jedynie „maskuje” braki, które i tak wyjdą na jaw przy samodzielnej pracy.
Mit, który często się pojawia, głosi: „AI zabije potrzebę uczenia się, bo wszystko będzie można wygenerować”. Rzeczywistość wygląda inaczej: im więcej złożonych narzędzi mamy pod ręką, tym bardziej potrzebne są osoby, które rozumieją, po co i jak z nich korzystać. Szkoła, która potraktuje AI jako okazję do trenowania tych meta-umiejętności, nie produkuje „leni”, lecz ludzi zdolnych do samodzielnego działania w świecie pełnym automatyzacji.
Najczęściej zadawane pytania (FAQ)
Jakie konkretne narzędzia AI mogą realnie pomóc nauczycielowi w codziennej pracy?
Najbardziej przydatne na start są: chatbot/asystent tekstowy (np. do tworzenia zadań, konspektów, wariantów kartkówek), proste generatory grafiki/slajdów oraz narzędzie do quizów online, które potrafi automatycznie tworzyć pytania z podanego tekstu. Zamiast szukać „idealnej aplikacji do wszystkiego”, lepiej dobrze opanować 2–3 programy, które faktycznie będą używane co tydzień.
Przykład: nauczyciel polskiego prosi chatbota o trzy wersje tego samego tekstu na różnym poziomie trudności, a potem je poprawia i dostosowuje do klasy. Nauczyciel matematyki generuje serię zadań tekstowych z procentami i wybiera tylko te, które mają sens w realnym życiu uczniów.
Czy sztuczna inteligencja może zastąpić nauczyciela w szkole?
Mit mówi: „AI wyjaśni wszystko lepiej niż nauczyciel”. Rzeczywistość: model językowy przewiduje kolejne słowa, a nie „zna prawdę”. Nie rozumie kontekstu wychowawczego, sytuacji rodzinnej ucznia ani dynamiki klasy. Nie ponosi też żadnej odpowiedzialności za skutki swoich podpowiedzi.
AI może być świetnym narzędziem pomocniczym – do szkiców, pomysłów, ćwiczeń, uproszczonych tekstów – ale decyzje merytoryczne i wychowawcze zostają po stronie nauczyciela. To raczej „szybsza kartka w kratkę i wyszukiwarka w jednym”, niż wirtualny superpedagog.
Jak bezpiecznie korzystać z AI na lekcjach, żeby nie wprowadzać uczniów w błąd?
Podstawowa zasada: odpowiedzi AI traktujemy jako materiał roboczy, który trzeba sprawdzić. Nauczyciel powinien zawsze weryfikować fakty, daty, wzory, nazwiska i treść zadań przed użyciem ich na lekcji. Dobrą praktyką jest porównywanie wygenerowanych treści z podręcznikiem lub rzetelnym źródłem (strona instytucji, książka, baza aktów prawnych).
Uczniom można wprowadzić prostą regułę: „Każdy fakt z AI, który trafia do Twojej pracy, sprawdź przynajmniej w jednym niezależnym źródle”. Ciekawym ćwiczeniem jest też zadanie typu: „Znajdź trzy nieścisłości albo rzeczy do doprecyzowania w odpowiedzi AI na dany temat” – wtedy uczniowie widzą, że płynny styl nie oznacza nieomylności.
Jaka jest różnica między korzystaniem z wyszukiwarki a używaniem chatbota AI przez uczniów?
Uczeń, wpisując pytanie w wyszukiwarkę, dostaje listę stron i fragmentów tekstów, które może porównać i ocenić. Widzi źródło, datę, autora. W przypadku chatbota AI otrzymuje gotową, spójną wypowiedź „jednego eksperta”, często bez pełnej listy źródeł, a model nie musi się trzymać rzeczywistych dokumentów – potrafi „dowyobrazić” brakujące elementy.
W praktyce oznacza to, że wyszukiwarka ułatwia dotarcie do materiałów, a AI tworzy nową treść na podstawie wzorców z treningu. Z punktu widzenia edukacji kluczowe jest nauczenie uczniów, że odpowiedź chatbota to punkt wyjścia do sprawdzania i myślenia, a nie gotowa prawda do bezrefleksyjnego skopiowania.
Czy używanie AI przez uczniów to zawsze „ściąganie”? Jak do tego podejść w szkole?
Sam fakt skorzystania z AI nie musi oznaczać oszustwa. Ściąganie zaczyna się wtedy, gdy uczeń przedstawia cudzy (w tym wypadku wygenerowany) tekst jako w pełni własny, bez zrozumienia. Można więc wyznaczyć jasne zasady: np. „AI możesz użyć do pomysłów i szkiców, ale ostateczną wersję piszesz sam(a)”, albo „przy pracy domowej wskaż, w czym pomogła Ci AI”.
Zamiast zakazywać wszystkiego, lepiej uczciwie rozmawiać o granicach: co jest pomocą techniczną (np. uproszczenie tekstu, wygenerowanie dodatkowych przykładów), a co już podszywaniem się pod autora. Uczniowie zwykle akceptują reguły, które są jasno wytłumaczone i stosowane konsekwentnie.
Jak wprowadzić AI do pracy nauczyciela, jeśli w szkole jest stary sprzęt i mało czasu?
Nie trzeba od razu „cyfryzować” całej szkoły. Lepiej zacząć od małych kroków, które realnie odciążą nauczyciela: używać chatbota na własnym komputerze lub telefonie do przygotowania kart pracy, wariantów tekstów, pomysłów na zadania czy uproszczonych materiałów dla uczniów ze specjalnymi potrzebami. To praca „na zapleczu”, niewymagająca tablic interaktywnych ani nowej sali komputerowej.
Mit „albo pełna szkoła przyszłości, albo nic” blokuje wielu nauczycieli. Rzeczywistość jest taka, że nawet jedno dobrze wykorzystywane narzędzie AI może zaoszczędzić godziny siedzenia nad arkuszem kalkulacyjnym czy ręcznym przepisywaniem zadań. Wystarczy kilka prostych nawyków, a nie rewolucja sprzętowa.
Jak uczyć krytycznego myślenia przy korzystaniu z AI na lekcjach?
Dobrym punktem wyjścia są krótkie ćwiczenia, w których uczniowie mają „spierać się” z AI. Można poprosić model o wyjaśnienie pojęcia, a następnie zadać klasie zadanie: „Znajdź błędy, niejasności albo brakujące elementy”. W ten sposób AI staje się materiałem treningowym do analizy, a nie wyrocznią.
Sprawdza się też porównywanie: „Jak tłumaczy to AI, a jak podręcznik?” albo „Które przykłady z odpowiedzi AI są oderwane od polskich realiów i jak je poprawić?”. Uczniowie szybko widzą, że narzędzie jest użyteczne, ale wymaga czujności – dokładnie tak jak każdy inny materiał z internetu.






