Kiedy w 2023 roku rozmawialiśmy ze studentkami i studentami, czy i jak używają na studiach chatuGPT, odpowiedzi były umiarkowane entuzjastyczne. Już wtedy istniała spora grupa osób, które ze sztuczną inteligencją eksperymentowały, ale wiele innych jeszcze to-wówczas-nowość nie skusiła. Dziś nie jest już nowością, a to, że z ChatuGPT korzystają studenci i studentki, nie jest dla nikogo tajemnicą. Pytanie nie brzmi więc: czy korzystają, ani nawet jak. Pytanie brzmi: jak upowszechnienie się AI przeorganizuje studia, jakie znaliśmy do tej pory.
Studia w czasach AI.
Kiedy dwa lata temu pytaliśmy studentów i studentki, w jaki sposób używają ChatuGPT, odpowiedzi były z grubsza podobne. Studiujący sprawdzali, co na dany temat ma do powiedzenia sztuczna inteligencja, po czym - widząc powierzchowność i brak akademickiej precyzji - uruchamiali swoją wiedzę i poprawiali treść wygenerowaną przez AI. Mniej rozbudowany ChatGPT nie pozwalał bowiem na pełne zaufanie - wiadomo było, że bez ludzkiej ręki odpowiedzi na zadane pytania będą sztampowe, ogólnikowe i rozmyte. Dzisiaj sytuacja jest inna - ChatGPT (i jego nowe odpowiedniki) szalenie się poprawił, a z narzędzi opartych na AI korzystają już naprawdę wszyscy. Co więcej, nikt nie ma już wątpliwości, że korzystanie z niej to integralna część studiowania. Wydaje się, że skala zastosowania AI wśród studentów jest coraz większa. Profesorowie wskazują na fakt, że jakość prac, które powstają przy jej użyciu, jest bardzo różna. Czasem są to naprawdę dobre prace, a czasem wyglądają jak esej przedszkolaka.
Poziom rośnie.
Antek, student matematyki na Wydziale Matematyki Informatyki i Mechaniki Uniwersytetu Warszawskiego: - Kiedy dwa lata temu próbowałem za pomocą ChatuGPT rozwiązać nawet najprostsze zadania z licencjatu, okazywał się kompletnie niepomocny. Wykładał się nawet na najbardziej podstawowych zagadnieniach. Antek zastrzega jednak, że poziom na jego wydziale jest wysoki, więc nawet jeśli mowa o „najprostszych zadaniach”, tak naprawdę chodzi o bardzo złożone zagadnienia. Dziś Antek na tym samym wydziale robi magisterkę. I jego stosunek do ChatuGPT diametralnie się zmienił, zresztą tak samo narzędzie. Praktycznie na każde zajęcia przygotowuję się z AI, mimo że poziom trudności znacznie się zwiększył od czasów licencjatu. - Jasne, nie zawsze rozwiąże zadanie w pełni poprawnie i trzeba kontrolować, co pisze, ale generalnie jest ogromnym ułatwieniem. Często, kiedy np. nie rozumiem materiału z wykładu, każę AI wytłumaczyć coś prościej. I faktycznie dużo mi to daje. Zastrzeżenie jest jednak takie, że Antek używa płatnej wersji chatuGPT. I choć, jak wiadomo, studenci zwykle nie narzekają na nadmiar pieniędzy, na taki „zabytek” pozwalają sobie coraz częściej.
Odpowiada na nawet najgłupsze pytania.
Aż trudno uwierzyć, że od momentu zaprezentowania szerokiej grupie odbiorców ChatuGPT (w lipcu 2023 r.) nie minęły nawet dwa lata. To niewiele, ale wystarczyło, żeby technologia na dobre wniknęła w doświadczenie studiowania i przemodelowała sposoby przyswajania wiedzy. Jak zapewnia Marcel, student I roku na Politechnice Warszawskiej, w jego kilkumiesięcznym doświadczeniu studiowania ChatGPT odgrywa co najmniej ważną rolę: - Używam go często, jak większość moich kolegów. Rzadko po to, żeby zrobił coś za nas. Raczej, żeby wyjaśniał to, czego nie zrozumiałem z wykładów czy ćwiczeń. Większość wykładowców ma świadomość, że korzystamy z takich narzędzi. Proszą, tylko żebyśmy robili to z głową i zawsze sprawdzali odpowiedzi. Dla niektórych studentów ChatGPT pełni wręcz funkcję prywatnego wykładowcy. Wiadomo przecież, że umiejętności dydaktyczne prowadzących są na różnym poziomie, nie zawsze tłumaczą materiał w sposób zrozumiały. ChatGPT ma tę przewagę, że chociaż czasem się myli, można go pytać d do skutku, tak długo, aż zrozumiemy dany przykład czy mechanizm. A w dodatku możemy zadawać mu nawet najgłupsze i najbardziej banalne pytania. Takie, do których zadania często brakuje odwagi na zajęciach.
Zrzutka na ChatGPT.
Anna, studentka V roku prawa na Uniwersytecie Jagiellońskim, zgadza się z Antkiem, że jakość odpowiedzi generowanych przez ChatGPT znacznie się poprawiła. Na początku sztuczna inteligencja nie radziła sobie z rozwiązaniem nawet najbardziej schematycznych kazusów - wymyślała podstawy prawne i mieszała prawne porządki. Dzisiaj wciąż jej się to zdarza, chociaż zdecydowanie rzadziej. Zwłaszcza jeśli wykupi się opcję premium. Anna korzysta z niej wspólnie ze znajomymi. Najpierw droższą opcję wykupiła jedna osoba, ale kiedy koleżanki się o tym dowiedziały, prosiły o użyczenie dostępu. Szybko się okazało, że najkorzystniejszą dla wszystkich opcją będzie wykupienie opcji „pro” i podzielenie się dostępem. Wciąż nie jest to narzędzie idealne, ale większość kazusów rozwiązuje bez błędu. Chociaż trzeba za każdym razem weryfikować, czy dany przepis na pewno istnieje i czy dana odpowiedź w ogóle ma sens. Weryfikacja to ważny, choć coraz częściej pomijany element korzystania z narzędzi opartych na sztucznej inteligencji. Ryszard , doktorant na jednym z lepszych wydziałów prawa w Polsce, prowadzi zajęcia na studiach niestacjonarnych. Opowiada o studencie, który wysłał mu ostatnio rozwiązanie testu z pytaniami otwartymi: - Wiem, że używał do tego ChatuGPT albo innego narzędzia tego rodzaju, bo odpowiedzi oparł na przepisach, których… nie ma. Napisałem mu maila z uwagą, że dobrze byłoby chociaż sprawdzić, czy dany artykuł faktycznie istnieje. Szedł w zaparte - odpisał, że po prostu się pomylił, ale z „zewnętrznych pomocy nie korzystał”.
Kto ma czuwać nad uczciwością?
Sytuacje jak powyższa, chociaż zdarzają się coraz częściej, wciąż wydają się pozostawać nieco poza kontrolą. Nie ma bowiem regulacji prawnych, które w sposób klarowny wskazywałby, w jaki sposób i w jakim stopniu studenci mogą korzystać z AI. Ministerstwo Nauki i Szkolnictwa Wyższego na razie zostawia w tej kwestii wolną rękę uniwersytetom. Te najczęściej podchodzą do problemu „na miękko”, tworząc sugestie i zalecenia. W wytycznych Uniwersyteckiej Rady ds. Kształcenia Uniwersytetu Warszawskiego z grudnia 2023 roku można np. przeczytać, że to prowadzący zajęcia może określić cele, zakres i sposoby wykorzystania systemów AI w przygotowaniu prac zaliczeniowych lub prezentacji. Jak mówią antropolodzy technologii z Uniwersytetu Szkoły Wyższej Psychologii Społecznej specjalizujący się w obszarze społecznych implikacji sztucznej inteligencji, regulacje dotyczące tego obszaru wciąż są w fazie rozwoju i pozostają w gestii poszczególnych instytucji edukacyjnych. - W tej chwili na większości uczelni wypracowane zostały jedynie ogólne standardy dotyczące dobrych praktyk w tym zakresie. Wprowadzono procedury wykrywania plagiatów, które mogą obejmować również analizę pracy pod kątem generowania tekstu przez AI. Wytyczne dotyczące korzystania z narzędzi w procesie kształcenia kierowane są zarówno do studentów, jak i nauczycieli akademickich. Jednak decyzje o tym, w jaki zakresie można stosować narzędzie oparte na AI np. w procesie pisania prac licencjackich i magisterskich, mają podejmować sami dydaktycy. Chociaż wypracowano ogólne normy, jak korzystać z narzędzi opartych na AI, wciąż brakuje reguł na niektóre sytuacje. - Nie ma np. reguł postępowania czy procedur w sytuacji, gdy zorientujemy się, że ktoś przysłał nam esej oparty wyłącznie na sztucznej inteligencji, a wcześniej tego nie zasygnalizował. W takich przypadkach każdy wykładowca postępuje indywidualnie. W takim przypadku najczęstszą praktyką będzie przeprowadzenie rozmowy, która będzie miała na celu wyjaśnienie takiego postępowania.
Źródło: Gazeta Wyborcza, 3 czerwca 2025.