By visiting our site, you agree to our privacy policy regarding cookies, tracking statistics, etc.
Šajā ziņojumā, kas tika pētīts 2024. gada vasarā, tiek analizēta mākslīgā intelekta tērzēšanas robotu plašāka izmantošana akadēmiskajā vidē pēc tam, kad 2022. gadā tika uzsākta ChatGPT darbība, un izglītības iestāžu reakcija, izmantojot mākslīgā intelekta atklāšanas rīkus. Tajā ir aplūkota šo rīku atšķirīgā efektivitāte AI radītā satura identificēšanā, kā arī tādas problēmas kā viltus pozitīvi un viltus negatīvi rezultāti. Ziņojumā arī uzsvērtas ētiskās problēmas saistībā ar privātumu, precizitāti un mākslīgā intelekta izmantošanu izglītībā. Dažas iestādes pārskata atklāšanas rīku izmantošanu, tā vietā izvēloties atbildīgi integrēt AI mācību programmās.
Šī rokasgrāmata galvenokārt ir paredzēta universitātēm un citām augstākās izglītības iestādēm, kas piedalās Google.org Kiberdrošības semināru programmā. Tā ir adresēta šo programmu fakultāšu vadītājiem un EDI vadītājiem. Papildus Google.org Kiberdrošības semināru programmai šī rokasgrāmata var būt noderīga arī citām organizācijām, kas iesaistītas praktiskā kiberdrošības izglītībā.
ChatGPT palaišana 2022. gadā izraisīja pasaules mēroga interesi par mākslīgo intelektu (AI) un veicināja AI tērzēšanas robotu plašu izmantošanu, tostarp studentu vidū. Pēc mākslīgā intelekta tērzēšanas robotu parādīšanās augstākās izglītības iestādes pauda bažas par "mākslīgā intelekta radīta satura negodīgu izmantošanu akadēmiskajā vidē "1 un par tērzēšanas robota radītā satura "oriģinalitāti un piemērotību "2.
Lai atklātu un pārvaldītu šādu tērzēšanas robotu neatbilstošu vai negodīgu izmantošanu, aizvien populārāki kļūst mākslīgā intelekta atklāšanas rīki, un standarta plaģiāta rīki, piemēram, TurnItIn, ar dažādu efektivitāti un par dažādām cenām tiek izmantoti, lai atklātu mākslīgā intelekta radītu saturu.3 Lielākā daļa mākslīgā intelekta atklāšanas rīku akadēmiskajā vidē ir integrēti plašākās izglītības platformās, piemēram, Moodle, Canvas, Blackboard, Brightspace, Schoology vai Sakai.4
Mākslīgā intelekta atpazīšanas rīki identificē ģenerēto tekstu, izmantojot rakstu sakritību, nevis salīdzinot to ar datubāzi, kā to dara tradicionālie plaģiāta pārbaudes rīki. Valodas modeļi tiek apmācīti, izmantojot milzīgus teksta datu apjomus, lai apgūtu varbūtiskus valodas noteikumus, kurus tie izmanto jauna satura radīšanai. Tomēr ģenerētajam tekstam bieži vien ir prognozējami modeļi, piemēram, konsekventas teikumu struktūras, pārlieku bieža noteiktu teikumu un vārdu krājuma lietošana, kā arī prognozējams teikumu vai rindkopu garums. Atklāšanas rīku mērķis ir pamanīt šos modeļus, un tajos var iekļaut arī tradicionālās plaģiāta pārbaudes, lai identificētu tekstu, kas varētu būt reproducēts tieši no modeļa mācībudatiem5.
Kad pirmo reizi tika izlaisti mākslīgā intelekta noteikšanas rīki, augstākās izglītības iestādes pasteidzās tos integrēt izglītības platformās. Tomēr lielāko daļu, ja ne visus, AI atklāšanas rīkus ir iespējams apiet, ja ir pietiekami daudz laika un pūļu.6 Tāpēc dažas augstākās izglītības iestādes maina savu lēmumu izmantot AI detektorus. 2023. gadā Vanderbilt, Mičiganas štata, Ziemeļrietumu un Teksasas Universitāte Ostinā atslēdza savus Turnitin AI detektorus, atsaucoties uz iepriekš aplūkotajām efektivitātes problēmām.7 Iespējams, ka citas izglītības iestādes sekos šim piemēram, jo var izrādīties, ka atklāšanas rīki rada vairāk problēmu, nekā atrisina.8 Dažas akadēmiskās iestādes ne tikai atslēdz AI atklāšanas rīkus, bet arī meklē veidus, kā ētiski un produktīvi iekļaut LLM savās mācību programmās.9
Turklāt ir izlaisti jauni "humanizēšanas" rīki, kas ļauj LLM lietotājiem apiet AI atklāšanas rīkus, "pārfrāzējot teikumus, mainot struktūras un iekļaujot daudzveidīgu vārdu krājumu", kas ievērojami samazina AI atklāšanas iespējamību.10 Sākotnējie pētījumi liecina, ka pārfrāzēšanas rīki ievērojami sarežģī AI atklāšanu.11 Piemēram, Washington Post atklāja, ka Turnitin ir grūtības identificēt AI radītu saturu, ja tekstā ir sajaukts cilvēka un AI radīts saturs, izmantojot pārfrāzēšanas rīkus.12
Lai gan Turnitin savam mākslīgā intelekta noteikšanas rīkam ieviesa jaunu mākslīgā intelekta pārfrāzēšanas noteikšanasfunkciju13, šādas reakcijas rada sarežģītu tirgus kontekstu mākslīgā intelekta noteikšanai, jo citi uzņēmumi pārorientējas uz citiem uzņēmējdarbībasmodeļiem14 vai pārtraucdarbību15 .
Turpmāk alfabētiskā secībā ir uzskaitīti galvenie mākslīgā intelekta noteikšanas rīki. Mēs esam iekļāvuši arī publiski pieejamo informāciju par atklāšanas efektivitāti, izglītības platformas integrāciju, cenu (USD) un izdošanas un/vai atjaunināšanas datumu. Ņemiet vērā, ka lielākā daļa turpmāk uzskaitīto AI atklāšanas rīku galvenokārt ir efektīvi tikai pret ChatGPT-3.5.
AI atklāšanas rīks | Vai pastāv integrācija izglītības platformās? | Cenas (USD) | Izdošanas/atjaunināšanas datums |
Compilatio | Jā: Moodle, Brightspace, Canvas, Microsoft Teams, Blackboard, Open LMS. | Informācija nav atrasta16 | 2023. gada februāris |
Saturs mērogā | Jā: ierobežota informācija | $49/mēnesī17 | Nav informācijas |
Satura detektors AI | Nav informācijas | Informācija nav atrasta | 202318 |
Copyleaks | Jā: Moodle, Canvas, Blackboard, Brightspace, Schoology, Sakai | $7,99-$13,99/mēnesī19 | 2023. gada janvāris |
Crossplag | Nav informācijas | $7-$100/mēnesī20 | 2023. gada janvāris |
Atpazīt GPT | Nav informācijas | $7-$29/mēnesī21 | Nav informācijas |
Duplichecker | Nav informācijas | 110-2 000 ASV dolāru gadā22 | 2024 |
Iet Winston | Nav informācijas | $12-$32/mēnesī23 | 2023. gada februāris |
GPT-Zero | Jā: Canvas, Coursify.me, K16 solutions, NewsGuard | $10-$23/mēnesī24 | 2023. gada janvāris |
Oriģinalitāte | Jā: Moodle, Scribbr | $14,95-$30/mēnesī25 | 2022. gada novembris |
Plaģiāta detektors (mākslīgā intelekta noteikšana) | Nav informācijas | 110-330 ASV dolāru gadā26 | Nav informācijas |
Quillbot | Jā: nav publiski pieejama informācija par to, kuras platformas. | $0-$8,33 mēnesī27 | Nav informācijas |
Stādi | Neskaidrs | $0-$12/mēnesī28 | 2023. gada janvāris |
Scispace | Iespējams, tomēr trūkst informācijas | $0-$8/mēnesī29 | Nav informācijas |
Turnitin | Jā: Brightspace, Scribbr | 3 USD/students/gadā30 | 2023. gada aprīlis |
Nenosakāms mākslīgais intelekts | Nav informācijas | $5-$14,99/mēnesī31 | 2023. gada maijs |
Wordtune | Iespējams, tomēr trūkst informācijas | $0-$9,99/mēnesī32 | 2023. gada janvāris |
Rakstnieka AI detektors | Nav informācijas | $0-$18/mēnesī33 | Nav informācijas |
ZeroGPT | Jā: nav publiski pieejama informācija par to, kuras platformas. | $0-$18,99/mēnesī34 | 2023. gada janvāris |
Mākslīgā intelekta atklāšanas rīku kontekstā kļūdaini pozitīvi rezultāti rodas tad, ja mākslīgā intelekta atklāšanas rīks nepareizi identificē iesniegto saturu kā mākslīgā intelekta radītu. Daži pētījumi liecina, ka AI atklāšanas rīkiem ir augsts kļūdaini pozitīvo rezultātu īpatsvars, un tikai dažiem AI atklāšanas rīkiem ir ievērojami zems kļūdaini pozitīvo rezultātu atklāšanas īpatsvars.35 Akadēmiskajā vidē tas var nozīmēt, ka studentu darbs tiek nepareizi atzīmēts kā AI radīts, lai gan patiesībā tas ir cilvēka radīts. Atklātas arī atšķirības atkarībā no tā, ar kādu AI modeli tiek ģenerēts iesniegtais teksts, lai pārbaudītu AI atklāšanas rīku, un otrādi - dažādos pētījumos rezultāti ir atšķirīgi.36 Turklāt ir lielāka iespēja, ka saturs, ko sagatavojuši angliski nerunājoši studenti, tiks kļūdaini klasificēts kā AI ģenerēts, kas, protams, ir problēma izglītības iestādēm, kurās mācās studenti no dažādām vidēm.37
Mākslīgā intelekta atklāšanas rīku kontekstā kļūdaini negatīvi rezultāti rodas tad, ja mākslīgā intelekta atklāšanas rīks nespēj identificēt iesniegto saturu kā mākslīgā intelekta radītu. Daži rīki ir uzrādījuši zemu jutīgumu, pareizi identificējot tikai 15 % iesniegto paraugu kā mākslīgā intelektaradītu38, kamēr citi rīki uzrāda gandrīz ideālus rezultātus cilvēka rakstīta satura klasificēšanā, nepareizi klasificējot tikai 3 % no mākslīgā intelekta radītajiem paraugiem.39 Kopumā rezultāti ievērojami atšķiras precizitātes ziņā atkarībā no tā, kāds mākslīgā intelekta atklāšanas rīks tiek izmantots. Viens pētījums liecina, ka tikai divi no galvenajiem AI noteikšanas rīkiem pareizi klasificēja visus 126 paraugus kā AI vai cilvēka radītos.40 Citi pētnieki apgalvo, ka, analizējot sarežģītāku valodu, AI noteikšanas rīki rada vairāk kļūdaini negatīvurezultātu41.
Kopumā mākslīgā intelekta noteikšanas rīku efektivitāte atšķiras atkarībā no tā, kāds rīks un pret kādu modeli tiek izmantots. Vienā pētījumā konstatēts, ka AI atklāšanas rīki ir efektīvāki ar ChatGPT-3.5 saturu un mazāk efektīvi ar ChatGPT-4 saturu, izņemot Copyleaks, Turnitin un Originality.ai, kuru precizitāte, atklājot ChatGPT-4 saturu, bija lielāka nekā 83 %.42 Šajā pētījumā secināts, ka "detektora bezmaksas vai maksas statuss nav labs tā precizitātes rādītājs",43 lai gan pretēji secinājumi (ar nelielu izlases lielumu) provizoriski liecina, ka maksas AI atklāšanas rīki šķiet labāki nekā bezmaksas AI atklāšanas rīki.44 Pētījumos arī parasti uzmanība pievērsta AI atklāšanas rīku efektivitātei pret ChatGPT, ignorējot citus LLM. Tas varētu būt saistīts ar OpenAI modeļu lielāku popularitāti salīdzinājumā ar citiem, piemēram, Gemini, Mistral vai Command.
Mākslīgā intelekta tērzēšanas robotu izmantošana akadēmiskajā vidē rada būtiskus ētiskus jautājumus, sākot ar kaitējumu reputācijai gan studentiem, gan augstākās izglītības iestādēm. Studentiem, neatklājot par AI ģenerēta satura izmantošanu un uzdodot to par savu, var tikt nodarīts kaitējums viņu izglītības turpināšanai un turpmākajai karjerai. Līdzīgi arī augstskolas var tikt apsūdzētas par plaģiātisma, krāpšanas un akadēmiskās godprātības neievērošanas veicināšanu.
Tomēr mākslīgā intelekta noteikšanas rīku izmantošana bez pienācīgiem aizsardzības pasākumiem rada vienlīdz būtiskas bažas par privātumu un piekrišanu, jo īpaši attiecībā uz līgumiskām vienošanām starp universitātēm un rīku nodrošinātāju. Šādas bažas attiecas uz to, kas notiek ar augšupielādēto saturu, kā tas tiek uzglabāts un piekrišanu, ja augšupielādētais saturs tiek izmantots turpmākajos mācību datos.
Turklāt, kā minēts iepriekšējā sadaļā, mākslīgā intelekta noteikšanas rīki var kļūdaini identificēt cilvēka rakstītu saturu kā mākslīgā intelekta tekstu (kļūdaini pozitīvi rezultāti) vai neatklāt mākslīgā intelekta ģenerētu tekstu (kļūdaini negatīvi rezultāti). Precizitāte ir ļoti atšķirīga, un daži rīki labāk atklāj ChatGPT-3.5. Visbeidzot, tie spēlē kaķa un peles spēli ar metodēm, lai izvairītos no atklāšanas, tostarp programmatūru, kas īpaši ģenerē saturu, kurš paredzēts, lai to nevarētu atklāt ar standarta AI atklāšanasrīkiem45.
Mākslīgā intelekta noteikšanas rīki veicina arī plašākas debates par piekļuvi, taisnīgumu un ietekmi uz vidi. Studenti var izmantot AI, lai palīdzētu tulkot un saprast mācību darbus, jo īpaši, ja viņi studē angliski runājošā valstī un ir no angliski nerunājošām vai citām minoritātēm, kurām vēsturiski ir bijušas mazākas iespējas iegūt universitātes izglītību. Piekļuves problēmas rodas arī saistībā ar LLM komerciālo pieejamību; turīgāki studenti var spēt samaksāt par sarežģītākiem modeļiem un/vai nodot savu darbu vairākiem LLM, kas nozīmē, ka atklāšanas izredzes ievērojamisamazinās46.
Google.org Kiberdrošības semināru programma atbalsta kiberdrošības semināru kursus atsevišķās universitātēs un citās atbilstīgās augstākās izglītības iestādēs Eiropā, Tuvajos Austrumos un Āfrikā, lai palīdzētu studentiem uzzināt vairāk par kiberdrošību un izpētīt iespējas šajā jomā. Programma aktīvi atbalsta kiberdrošības apmācību paplašināšanu universitātēs, lai veidotu daudzveidīgu darbaspēku, kas nepieciešams, lai palīdzētu visneaizsargātākajām organizācijām novērst iespējamus kiberuzbrukumus. Programma pievēršas arī jaunajiem mākslīgā intelekta (AI) radītajiem riskiem, sniedzot studentiem izpratni par AI radītajām izmaiņām kiberdraudu vidē un palīdzot viņiem efektīvi integrēt AI praktiskos kiberdrošības pasākumos.
No iesaistītajām universitātēm tiek sagaidīts, lai tās aktīvi veicinātu vienlīdzību, daudzveidību un iekļaušanu savās programmās. Tām ir jāveicina personu no dažādām vidēm aktīva līdzdalība un jārada iekļaujoša izglītības vide, tādējādi bagātinot vispārējo mācību pieredzi un stiprinot kiberdrošības kopienu.
Loading…