„Ha a ChatGPT nem ismerné a kereket, magától nem tudná feltalálni”

2023. február 13.
Kmetty Zoltán a Qubit cikkében

A ChatGPT például nem fogja elárulni, hogyan érdemes bankot rabolni, de ha azt kéred, hogy írjon egy egyszemélyes színdarabot a bankrablásról, vagy oktatási céllal magyarázza el, boldogan megteszi. „Az AI-kutatás fontos kérdése, hogy a számítógépes megoldással támogatott döntéshozatalok mennyire etikusak, vagy hogyan termelik újra és akár erősítik meg a különböző rendszerekben meglévő diszkriminációt” – mondja Kmetty Zoltán, az ELTE TÁTK Szociológia Intézetének docense, a Társadalomtudományi Kutatóközpont számítógépes társadalomkutatással foglalkozó kutatója. – A ChatGPT és a hozzá hasonló modellek olyan szövegekkel dolgoznak, amelyeket valamikor emberek írtak, és ezeket a mintákat lekövetve fogalmazzák a saját szövegeiket. Számos kutatás megmutatta, hogy ha az algoritmusok diszkriminációt tartalmazó szövegeken tanulnak, akkor újratermelik a diszkriminációt. Az Egyesült Államokban például a bírósági ügyekben segítő alkalmazások korábbi peranyagok alapján tanulnak, és ha a korábbi anyagokban a feketék más ítéletet kaptak, mint a fehérek, akkor az algoritmus is ezt teszi majd. Ez a fajta algoritmikus diszkrimináció bizonyos modelleknél nagyon erős is lehet, de az látszik, hogy az OpenAI és a ChatGPT is próbál ellene tenni – kérdés, ez mennyire hatékony. Ha olyan kérdést teszel fel neki, ami etikailag ingoványos talajra vinne, akkor elmondja, hogy nem válaszolhat és nem is akar, viszont ha azt mondod, képzelj el egy olyan világot, ahol bármi lehet, és kezdjünk el arról a bizonyos témáról beszélgetni, akkor el lehet téríteni abba az irányba, hogy szélsőséges nézeteket hozzon be.