Apmeklējot mūsu vietni, jūs piekrītat mūsu privātuma politika attiecībā uz sīkfailiem, izsekošanas statistiku utt.
Piesakieties tagad, lai saņemtu bezmaksas atbalstu no mūsu Kiberdrošības pakalpojumu centra
Piesakieties bezmaksas kiberdrošības atbalstam
Piedalieties Ransomware aizsardzības vasaras treniņnometnē Amsterdamā, 2026. gada jūnijā
Apmeklējiet mūsu bezmaksas vasaras treniņnometni par aizsardzību pret izspiedējvīrusu programmatūru
Reģistrējieties kiberdrošības pamatos un AI tiešsaistes klātienes kursā
Uzziniet tiešsaistē par kiberdrošības pamatiem un AI
Šajā ziņojumā, kas tika pētīts 2024. gada vasarā, tiek analizēta mākslīgā intelekta tērzēšanas robotu plašāka izmantošana akadēmiskajā vidē pēc tam, kad 2022. gadā tika uzsākta ChatGPT darbība, un izglītības iestāžu reakcija, izmantojot mākslīgā intelekta atklāšanas rīkus. Tajā ir aplūkota šo rīku atšķirīgā efektivitāte AI radītā satura identificēšanā, kā arī tādas problēmas kā viltus pozitīvi un viltus negatīvi rezultāti. Ziņojumā arī uzsvērtas ētiskās problēmas saistībā ar privātumu, precizitāti un mākslīgā intelekta izmantošanu izglītībā. Dažas iestādes pārskata atklāšanas rīku izmantošanu, tā vietā izvēloties atbildīgi integrēt AI mācību programmās.
Šī rokasgrāmata galvenokārt ir paredzēta universitātēm un citām augstākās izglītības iestādēm, kas piedalās Google.org Kiberdrošības semināru programmā. Tā ir adresēta šo programmu fakultāšu vadītājiem un EDI vadītājiem. Papildus Google.org Kiberdrošības semināru programmai šī rokasgrāmata var būt noderīga arī citām organizācijām, kas iesaistītas praktiskā kiberdrošības izglītībā.
ChatGPT palaišana 2022. gadā izraisīja pasaules mēroga interesi par mākslīgo intelektu (AI) un veicināja AI tērzēšanas robotu plašu izmantošanu, tostarp studentu vidū. Pēc mākslīgā intelekta tērzēšanas robotu parādīšanās augstākās izglītības iestādes pauda bažas par "mākslīgā intelekta radīta satura negodīgu izmantošanu akadēmiskajā vidē".1 un "tērzēšanas robota radītā satura oriģinalitāti un piemērotību".2
Lai atklātu un pārvaldītu šādu tērzēšanas robotu neatbilstošu vai negodīgu izmantošanu, aizvien populārāki kļūst mākslīgā intelekta atklāšanas rīki, un standarta plaģiāta rīki, piemēram, TurnItIn, ar dažādu efektivitāti un par dažādām cenām tiek izmantoti mākslīgā intelekta radītā satura atklāšanai.3 Lielākā daļa AI noteikšanas rīku akadēmiskajās iestādēs ir integrēti plašākās izglītības platformās, piemēram, Moodle, Canvas, Blackboard, Brightspace, Schoology vai Sakai.4
Mākslīgā intelekta atpazīšanas rīki identificē ģenerēto tekstu, izmantojot rakstu sakritību, nevis salīdzinot to ar datubāzi, kā to dara tradicionālie plaģiāta pārbaudes rīki. Valodas modeļi tiek apmācīti, izmantojot milzīgus teksta datu apjomus, lai apgūtu varbūtiskus valodas noteikumus, kurus tie izmanto, lai radītu jaunu saturu. Tomēr ģenerētajam tekstam bieži vien ir prognozējami modeļi, piemēram, konsekventas teikumu struktūras, pārlieku biežs noteiktu teikumu un vārdu krājuma lietojums, kā arī prognozējams teikumu vai rindkopu garums. Atklāšanas rīku mērķis ir pamanīt šos modeļus, un tajos var iekļaut arī tradicionālās plaģiāta pārbaudes, lai identificētu tekstu, kas varētu būt reproducēts tieši no modeļa mācību datiem.5
Kad pirmo reizi tika izlaisti mākslīgā intelekta noteikšanas rīki, augstākās izglītības iestādes pasteidzās tos integrēt izglītības platformās. Tomēr lielāko daļu, ja ne visus, AI atklāšanas rīkus ir iespējams apiet, ja ir pietiekami daudz laika un pūļu.6 Tāpēc dažas augstākās izglītības iestādes maina savu lēmumu izmantot mākslīgā intelekta detektorus. 2023. gadā Vanderbilta, Mičiganas štata, Ziemeļrietumu un Teksasas Universitāte Ostinā atslēdza savus Turnitin AI detektorus, norādot uz iepriekš minētajām efektivitātes problēmām.7 Citas izglītības iestādes, visticamāk, sekos šim piemēram, jo var izrādīties, ka atklāšanas rīki rada vairāk problēmu, nekā atrisina.8 Dažas akadēmiskās iestādes ne tikai atslēdz mākslīgā intelekta atklāšanas rīkus, bet arī meklē veidus, kā ētiski un produktīvi iekļaut LLM savās mācību programmās.9
Turklāt ir izlaisti jauni "humanizēšanas" rīki, lai LLM lietotāji varētu apiet mākslīgā intelekta atklāšanas rīkus, "pārfrāzējot teikumus, mainot struktūras un iekļaujot daudzveidīgu vārdu krājumu", kas ievērojami samazina mākslīgā intelekta atklāšanas iespējamību.10 Sākotnējie pētījumi liecina, ka pārfrāzēšanas rīki ievērojami apgrūtina AI noteikšanu.11 Piemēram, laikraksts Washington Post atklāja, ka Turnitin ar grūtībām identificē mākslīgā intelekta radītu saturu, ja tekstā ir sajaukts cilvēka un mākslīgā intelekta radīts saturs, izmantojot pārfrāzēšanas rīkus.12
Lai gan Turnitin savam mākslīgā intelekta noteikšanas rīkam ir pievienojusi jaunu mākslīgā intelekta pārfrāzēšanas noteikšanas funkciju,13 šādas reakcijas rada sarežģītu tirgus kontekstu mākslīgā intelekta noteikšanai, citiem uzņēmumiem pārorientējoties uz citiem uzņēmējdarbības modeļiem,14 vai slēgšana.15
Turpmāk alfabētiskā secībā ir uzskaitīti galvenie mākslīgā intelekta noteikšanas rīki. Mēs esam iekļāvuši arī publiski pieejamo informāciju par atklāšanas efektivitāti, izglītības platformas integrāciju, cenu (USD) un izdošanas un/vai atjaunināšanas datumu. Ņemiet vērā, ka lielākā daļa turpmāk uzskaitīto AI atklāšanas rīku galvenokārt ir efektīvi tikai pret ChatGPT-3.5.
| AI atklāšanas rīks | Vai pastāv integrācija izglītības platformās? | Cenas (USD) | Izdošanas/atjaunināšanas datums |
| Compilatio | Jā: Moodle, Brightspace, Canvas, Microsoft Teams, Blackboard, Open LMS. | Informācija nav atrasta16 | 2023. gada februāris |
| Saturs mērogā | Jā: ierobežota informācija | $49/mēnesī17 | Nav informācijas |
| Satura detektors AI | Nav informācijas | Informācija nav atrasta | 202318 |
| Copyleaks | Jā: Moodle, Canvas, Blackboard, Brightspace, Schoology, Sakai. | $7.99-$13.99/month19 | 2023. gada janvāris |
| Crossplag | Nav informācijas | $7-$100/month20 | 2023. gada janvāris |
| Atpazīt GPT | Nav informācijas | $7-$29/mēnesī21 | Nav informācijas |
| Duplichecker | Nav informācijas | $110-$2000/year22 | 2024 |
| Iet Winston | Nav informācijas | $12-$32/month23 | 2023. gada februāris |
| GPT-Zero | Jā: Canvas, Coursify.me, K16 solutions, NewsGuard | $10-$23/month24 | 2023. gada janvāris |
| Oriģinalitāte | Jā: Moodle, Scribbr | $14.95-$30/month25 | 2022. gada novembris |
| Plaģiāta detektors (mākslīgā intelekta noteikšana) | Nav informācijas | $110-$330/year26 | Nav informācijas |
| Quillbot | Jā: nav publiski pieejama informācija par to, kuras platformas. | $0-$8.33/month27 | Nav informācijas |
| Stādi | Neskaidrs | $0-$12/mēnesī28 | 2023. gada janvāris |
| Scispace | Iespējams, tomēr trūkst informācijas | $0-$8/mēnesī29 | Nav informācijas |
| Turnitin | Jā: Brightspace, Scribbr | $3/students/gadā30 | 2023. gada aprīlis |
| Nenosakāms mākslīgais intelekts | Nav informācijas | $5-$14.99/month31 | 2023. gada maijs |
| Wordtune | Iespējams, tomēr trūkst informācijas | $0-$9.99/month32 | 2023. gada janvāris |
| Rakstnieka AI detektors | Nav informācijas | $0-$18/mēnesī33 | Nav informācijas |
| ZeroGPT | Jā: nav publiski pieejama informācija par to, kuras platformas. | $0-$18.99/month34 | 2023. gada janvāris |
Mākslīgā intelekta atklāšanas rīku kontekstā kļūdaini pozitīvi rezultāti rodas tad, ja mākslīgā intelekta atklāšanas rīks nepareizi identificē iesniegto saturu kā mākslīgā intelekta radītu. Daži pētījumi liecina, ka AI atklāšanas rīkiem ir augsts kļūdaini pozitīvo rezultātu īpatsvars, un tikai dažiem AI atklāšanas rīkiem ir ievērojami zems kļūdaini pozitīvo rezultātu atklāšanas rādītājs.35 Akadēmiskajā vidē tas var nozīmēt, ka studentu darbi tiek kļūdaini atzīmēti kā mākslīgā intelekta radīti, lai gan patiesībā tie ir cilvēka radīti. Atšķirības ir konstatētas arī atkarībā no tā, kāds mākslīgā intelekta modelis tiek izmantots, lai ģenerētu iesniegto tekstu, ko pārbauda mākslīgā intelekta noteikšanas rīks, un otrādi, un rezultāti dažādos pētījumos ir atšķirīgi.36 Turklāt ir lielāka iespēja, ka saturs, ko sagatavojuši angliski nerunājoši cilvēki, tiks nepareizi klasificēts kā mākslīgā intelekta radīts, kas, protams, ir problēma izglītības iestādēm, kurās mācās skolēni no dažādām vidēm.37
Mākslīgā intelekta atklāšanas rīku kontekstā kļūdaini negatīvi rezultāti rodas tad, ja mākslīgā intelekta atklāšanas rīks nespēj identificēt iesniegto saturu kā mākslīgā intelekta radītu. Daži rīki ir uzrādījuši zemu jutīgumu, pareizi identificējot tikai 15% iesniegto paraugu kā AI radītu saturu,38 savukārt citi uzrāda gandrīz perfektu rezultātu cilvēka rakstīta satura klasificēšanā, nepareizi klasificējot tikai 3% no mākslīgā intelekta ģenerētajiem paraugiem.39 Kopumā rezultātu precizitāte ievērojami atšķiras atkarībā no izmantotā AI noteikšanas rīka. Viens pētījums liecina, ka tikai divi no galvenajiem mākslīgā intelekta noteikšanas rīkiem pareizi klasificēja visus 126 paraugus kā mākslīgā intelekta vai cilvēka radītus.40 Citi pētnieki apgalvo, ka, analizējot sarežģītāku valodu, mākslīgā intelekta atklāšanas rīki rada vairāk viltus negatīvu rezultātu.41
Kopumā mākslīgā intelekta noteikšanas rīku efektivitāte atšķiras atkarībā no tā, kāds rīks un pret kādu modeli tiek izmantots. Vienā pētījumā konstatēts, ka AI atklāšanas rīki ir efektīvāki ar ChatGPT-3.5 saturu un mazāk efektīvi ar ChatGPT-4 saturu, izņemot Copyleaks, Turnitin un Originality.ai, kuru precizitāte, atklājot ChatGPT-4 saturu, bija lielāka nekā 83%.42 Šajā pētījumā secināts, ka "detektora bezmaksas vai maksas statuss nav labs tā precizitātes rādītājs",43 lai gan kontrastaini secinājumi (ar nelielu izlases lielumu) provizoriski liecina, ka maksas AI atklāšanas rīki šķiet labāki nekā bezmaksas AI atklāšanas rīki.44 Arī pētījumos parasti galvenā uzmanība tiek pievērsta AI atklāšanas rīku efektivitātei pret ChatGPT, ignorējot citus LLM. Iespējams, tas ir saistīts ar OpenAI modeļu lielāku popularitāti salīdzinājumā ar citiem, piemēram, Gemini, Mistral vai Command.
Mākslīgā intelekta tērzēšanas robotu izmantošana akadēmiskajā vidē rada būtiskus ētiskus jautājumus, sākot ar kaitējumu reputācijai gan studentiem, gan augstākās izglītības iestādēm. Studentiem, neatklājot par AI ģenerēta satura izmantošanu un uzdodot to par savu, var tikt nodarīts kaitējums viņu izglītības turpināšanai un turpmākajai karjerai. Līdzīgi arī augstskolas var tikt apsūdzētas par plaģiātisma, krāpšanas un akadēmiskās godprātības neievērošanas veicināšanu.
Tomēr mākslīgā intelekta noteikšanas rīku izmantošana bez pienācīgiem aizsardzības pasākumiem rada vienlīdz nopietnas bažas par privātumu un piekrišanu, jo īpaši attiecībā uz līgumiskām vienošanām starp universitātēm un rīku nodrošinātāju. Šādas bažas attiecas uz to, kas notiek ar augšupielādēto saturu, kā tas tiek uzglabāts un piekrišana, ja augšupielādētais saturs tiek izmantots turpmākajos mācību datos.
Turklāt, kā minēts iepriekšējā sadaļā, mākslīgā intelekta noteikšanas rīki var kļūdaini identificēt cilvēka rakstītu saturu kā mākslīgā intelekta tekstu (kļūdaini pozitīvi rezultāti) vai neatklāt mākslīgā intelekta ģenerētu tekstu (kļūdaini negatīvi rezultāti). Precizitāte ir ļoti atšķirīga, un daži rīki labāk atklāj ChatGPT-3.5. Visbeidzot, tie spēlē "kaķa un peles spēli", izmantojot metodes, kā izvairīties no atklāšanas, tostarp programmatūru, kas īpaši ģenerē saturu, kurš paredzēts, lai to nevarētu atklāt ar standarta AI atklāšanas rīkiem.45
Mākslīgā intelekta noteikšanas rīki veicina arī plašākas debates par piekļuvi, taisnīgumu un ietekmi uz vidi. Studenti var izmantot AI, lai palīdzētu tulkot un saprast mācību darbus, jo īpaši, ja viņi studē angliski runājošā valstī un ir no angliski nerunājošām vai citām minoritātēm, kurām vēsturiski ir bijušas mazākas iespējas iegūt universitātes izglītību. Piekļuves problēmas rodas arī saistībā ar LLM komerciālo pieejamību; turīgāki studenti var būt spējīgi samaksāt par sarežģītākiem modeļiem un/vai padot savu darbu vairākiem LLM, kas nozīmē, ka atklāšanas izredzes ievērojami samazinās.46
Google.org Kiberdrošības semināru programma atbalsta kiberdrošības semināru kursus atsevišķās universitātēs un citās atbilstīgās augstākās izglītības iestādēs Eiropā, Tuvajos Austrumos un Āfrikā, lai palīdzētu studentiem uzzināt vairāk par kiberdrošību un izpētīt iespējas šajā jomā. Programma aktīvi atbalsta kiberdrošības apmācību paplašināšanu universitātēs, lai veidotu daudzveidīgu darbaspēku, kas nepieciešams, lai palīdzētu visneaizsargātākajām organizācijām novērst iespējamus kiberuzbrukumus. Programma pievēršas arī jaunajiem mākslīgā intelekta (AI) radītajiem riskiem, sniedzot studentiem izpratni par AI radītajām izmaiņām kiberdraudu vidē un palīdzot viņiem efektīvi integrēt AI praktiskos kiberdrošības pasākumos.
No iesaistītajām universitātēm tiek sagaidīts, lai tās aktīvi veicinātu vienlīdzību, daudzveidību un iekļaušanu savās programmās. Tām ir jāveicina personu no dažādām vidēm aktīva līdzdalība un jārada iekļaujoša izglītības vide, tādējādi bagātinot vispārējo mācību pieredzi un stiprinot kiberdrošības kopienu.