PL | EN

ChatGPT a zagrożenia dla systemu edukacji i reakcje nauczycieli

Oparty na sztucznej inteligencji ChatGPT rewolucjonizuje wiele branż, w tym środowisko akademickie. Zadebiutował już w literaturze naukowej – został uznany za autora co najmniej czterech artykułów i próbnych wydruków. Wydawcy z reguły są zgodni: AI nie spełnia kryteriów autora badania, ponieważ nie może brać odpowiedzialności za treść oraz integralność artykułów naukowych. Niektórzy twierdzą jednak, że wkład sztucznej inteligencji w pisanie artykułów można docenić w sekcjach innych niż lista autorów.

Tymczasem uczelnie przerabiają kursy i podejmują działania zapobiegawcze, aby studentom trudniej było korzystać z narzędzi opartych na sztucznej inteligencji. Pracownicy akademiccy wprowadzają zmiany, które obejmują więcej egzaminów ustnych, pracę w grupach i odręczne ocenianie. Uczelnie niechętnie jednak zakazują AI – ich władze wątpią, czy posunięcie to będzie skuteczne. Nie chcą zarazem naruszać wolności akademickiej. Uniwersytet Waszyngtona w St. Louis i Uniwersytet Vermontu opracowują poprawki do własnych zasad uczciwości akademickiej, aby ich definicje plagiatu obejmowały generatywną sztuczną inteligencję.

W szkołach nauczyciele próbują natomiast kontrolować, czy uczniowie używają chatbota do odrabiania lekcji, oraz zakazują korzystania z tego narzędzia na szkolnych urządzeniach i w sieciach wi-fi. Ponadto niektóre firmy, np. Turnitin, już aktywnie pracują nad narzędziami do wykrywania plagiatu ChatGPT, które mogą pomóc nauczycielom wyłapać zadania pisane przez sztuczną inteligencję.

Wersja audio dostępna
dla Patronek i Patronów
Hej! Zainteresował Cię nasz Magazyn? Możesz otrzymywać go regularnie. Podaj swój adres e-mail, a co piątek trafi do Ciebie nasz przegląd istotnych i sprawdzonych informacji ze świata. Miłego czytania!
Naciskając „Zapisz się”, wyrażam zgodę na przesyłanie newslettera przez Outriders Sp. not-for-profit Sp. z o.o. i akceptuję regulamin.
Czytaj również
AI: kłamca, mistrz geometrii i wsparcie sędziego
AI: kłamca, mistrz geometrii i wsparcie sędziego
Badacze ze start-upu Anthropic sprawdzili, czy chatboty, takie jak ChatGPT, są w stanie kłamać. Nie dość, że odpowiednio wytrenowane modele mogą się nauczyć oszukiwać człowieka i inne modele sztucznej inteligencji, to jeszcze się okazuje, że tego procesu nie da się odwrócić przy użyciu dostępnych środków bezpieczeństwa dla zaawansowanych systemów AI. Dlatego naukowcy ostrzegają przed „fałszywym […]
Szkoła w dobie AI – zagrożenia i rozwiązania
Szkoła w dobie AI – zagrożenia i rozwiązania
W ramach singapurskiej strategii „Smart Nation” sztuczna inteligencja ma pomagać nauczycielom i doskonalić proces edukacji uczniów, szczególnie tych ze specjalnymi potrzebami. AI zapewni także zautomatyzowane systemy oceniania i uczenia maszynowego, aby każdy uczeń jak najlepiej reagował na materiały i działania prowadzone w klasie. Korea Południowa wdrożyła systemy oparte na AI, by dostosować prace domowe i […]
Pierwsza psychopatyczna sztuczna inteligencja (AI) powstała w Instytucie Technologii w Massachusetts
Pierwsza psychopatyczna sztuczna inteligencja (AI) powstała w Instytucie Technologii w Massachusetts
Pierwsza psychopatyczna sztuczna inteligencja (AI) powstała w Instytucie Technologii w Massachusetts (MIT). Naukowcy stworzyli „Normana”, aby wytłumaczyć, jak opracowywane są algorytmy, i uświadomić ludziom potencjalne zagrożenia AI. Okazuje się, że dane, na bazie których sztuczna inteligencja uczy się algorytmów, mogą znacząco wpływać na jej zachowanie. Norman otrzymywał tylko krótkie historie opisujące obrazy umierających ludzi, które […]
Zastosowanie AI w edukacji i medycynie
Zastosowanie AI w edukacji i medycynie
Zdaniem ekspertów z m.in. Centre for Cardiovascular Science na Uniwersytecie w Edynburgu sztuczna inteligencja może znacznie poprawić trafność diagnoz zawału serca i zmniejszyć obciążenie na oddziałach ratunkowych. W porównaniu z obecnymi metodami testowania oparty na AI algorytm o nazwie CoDE-ACS potrafi wykluczyć zawał serca u ponad dwukrotnie większej liczby pacjentów z dokładnością 99,6%. Algorytm może […]
Niebezpieczeństwa związane ze stosowaniem sztucznej inteligencji
Niebezpieczeństwa związane ze stosowaniem sztucznej inteligencji
Europol opublikował raport ostrzegający przed wykorzystywaniem narzędzia ChatGPT oraz innych generatywnych systemów sztucznej inteligencji do oszustw internetowych i innych cyberprzestępstw. Jak dotąd eksperci zidentyfikowali liczne przypadki nielegalnego użycia ChatGPT. Zdaniem Europolu zasady jego moderacji można obejść poprzez tzw. inżynierię podpowiedzi – praktykę polegającą na dostarczaniu danych wejściowych do modelu AI w celu uzyskania określonego wyniku. […]
Pozostałe wydania