Dr. Solt Ágnes PhD
tudományos főmunkatárs, OKRI
ORCID: 0000-0002-0918-4964
Dr. Virág György PhD
igazgatóhelyettes, főtanácsos, OKRI
ORCID: 0000-0001-6857-9707
Periodika:
Solt Ágnes – Virág György: „Azt hittem, barátok vagyunk” – Kódolt megtévesztés, avagy a mesterséges intelligencia felhasználása a bűnelkövetésben
Kriminológiai Tanulmányok, 2025/62., 30–47.
„Azt hittem, barátok vagyunk”
Kódolt megtévesztés, avagy a mesterséges intelligencia felhasználása a bűnelkövetésben
» «
“I thought we were friends”
Coded deception, or the use of artificial intelligence to commit crimes
Absztrakt
A tanulmány az intézeti mesterséges intelligencia (MI) kutatás első fázisában szerzett tapasztalatokról ad számot. Jelzi az MI, és különösen a nagy nyelvi modelleket (LLM) használó keresőmotorok jelentőségét és veszélyeit a kriminalitás világában, elsősorban a bűnelkövetési célú felhasználás, ezen belül is az erőszakos bűncselekmények elkövetésében történő alkalmazás tekintetében. A szerzők ismertetik kísérleteik eredményeit, amelyek során – a mesterséges intelligenciát „félrevezetve” – sikerült részletes és strukturált válaszokat kapni súlyos bűncselekmények megtervezésére és sikeres végrehajtására vonatkozóan. Úgy tűnik – a folyamatos tesztelés, fejlesztés, „tanulás” ellenére – az LLM-rendszerek jelenleg korlátozottan alkalmasak arra, hogy kiszűrjék a jogellenes, károkozást segítő tartalmak akaratlan támogatását. Továbbá triviális ugyan, de mégis elgondolkodtató, hogy minden ismeret, információ, vagyis minden elérhető közlés, legyen az eredetileg „jó szándékú” (például bűnmegelőzési célú), éppúgy felhasználható „rossz célok” elérése érdekében is.
KULCSSZAVAK: mesterséges intelligencia, nagy nyelvi modellek, visszaélés, manipuláció, modern kriminális jelenségek, MI bűnözés
»» ««
Abstract
The study presents the experiences of the initial phase of the NIC’s artificial intelligence (AI) research. It highlights the importance and dangers of AI – in particular, search engines using large language models (LLM) – in the world of criminality, especially with regard to criminal use, primarily in committing a violent crime. The authors describe the results of their experiments, which, by ‘misleading’ AI, have succeeded in obtaining detailed and structured answers regarding the planning and successful execution of serious offences. It appears that, despite continuous testing, development and ‘learning’, LLM systems currently have a limited ability to filter out unwitting support for unlawful content that facilitates harm. Furthermore, it is trivial but nonetheless thought-provoking that all knowledge is information, i.e. all available communications, whether originally ‘well-intentioned’ (e.g. for crime prevention purposes) can be misused.
KEYWORDS: Artificial Intelligence, Large Language Models, abuse, manipulation, Modern Criminal Phenomena, AI crime