Miért tűnik hitelesebbnek valami, amikor az AI mondja?

Dátum: 2026/03/25


A digitális környezetben egyre több döntést támogat valamilyen mesterséges intelligencia. Kampányokat optimalizál, szövegeket vagy éppen kreatívokat generál. Sok esetben nemcsak használjuk ezeket az eszközöket, hanem egyre inkább támaszkodunk is rájuk. És gyakran észrevétlenül kialakul bennünk egy olyan kép az AI-val kapcsolatban, hogy amit mond az minden esetben hiteles és megkérdőjelezhetetlen. 

Ezt a jelenséget nevezik Authority Bias-nek a pszichológiában. Klasszikus példái közé tartoznak Stanley Milgram kísérletei, amelyek azt mutatták meg, hogy az emberek hajlamosak nagyobb súlyt adni egy információnak, ha azt egy általuk hitelesnek tartott forrás közli. A tekintély nem feltétlenül szakértelem, hanem észlelt megbízhatóság. 


Az AI nem szakértő, hanem csak egy mintázatokat felismerő rendszer.

A mesterséges intelligencia esetében ez a torzítás egy új formában jelenik meg. Nem egy emberi szakértőhöz kötjük a hitelességet, hanem magához a technológiához. Az AI „hangja” sokszor tárgyilagos, strukturált és magabiztos, ami azt az érzetet kelti, mintha egy független, torzításoktól mentes rendszer beszélne. Valójában azonban az AI nem rendelkezik saját nézőponttal. Az általa adott válaszok mindig az adatok, a modellek és az általunk meghatározott célok keretein belül születnek. 

Ez különösen fontos marketingkörnyezetben. Egy hirdetési rendszer például képes optimalizálni kampányokat, de mindig arra, amit célként megadunk neki. Ha a cél hibás vagy hiányos, az eredmény is az lesz. A rendszer nem „téved”, hanem következetesen végrehajtja azt, amit tanítottunk neki. 

Emellett gyakori jelenség, hogy egyfajta „mindentudó entitásként” kezeljük az AI rendszereket, amelyekről úgy gondolkodunk, mintha a világ összes tudása a rendelkezésükre állna és ez alapján hoznák meg a legjobb döntést. Ez azonban csak részben igaz. Az AI mindig csak azokkal az adatokkal dolgozik, amelyek számára rendelkezésére állnak és csak azokon a célokon belül optimalizál, amelyeket mi határozunk meg számára. 


A látszólagos objektivitás mögött mindig van egy keretrendszer és egy korlát.

Ez azt jelenti, hogy az AI válaszai nem független igazságok, hanem egy adott rendszer logikus kimenetei. Minél jobban értjük ezt a keretrendszert, annál pontosabban tudjuk értelmezni az eredményeket is. Ha viszont ezt figyelmen kívül hagyjuk, könnyen összekeverjük a következetességet az objektivitással. 

A valódi kockázat nem az, hogy az AI rossz választ ad, hanem az, hogy nem tesszük fel a megfelelő kérdéseket. Ha nem értjük, milyen adatokból dolgozik, milyen célokra optimalizál és milyen feltételezések mentén működik, akkor a döntéseink alapja is torzul. 

A tudatos használat ezért nem abban áll, hogy elfogadjuk az AI javaslatait, hanem abban, hogy értelmezzük őket. Milyen adatokból dolgozik? Milyen célra optimalizál? Milyen feltételezések mentén válaszol? Ezek a kérdések határozzák meg, hogy valóban hasznos eszközként használjuk-e. 


Mit vigyél magaddal? 

  • Az AI nem független szakértő, hanem egy keretek között működő rendszer. 
  • A látszólagos objektivitás mögött mindig ott van az adat és a cél meghatározása. 
  • A döntések minőségét nem a forrás, hanem az értelmezés határozza meg. 

Kérdések a cikk gyakorlati felhasználásához: 

Tudod, hogy az AI milyen adatokból és milyen cél mentén dolgozik? Ez határozza meg, mennyire megbízható az eredmény. 

Automatikusan elfogadod az AI válaszait vagy megpróbálod átlátni az érvelését? Nem mindegy, hogy eszközként vagy iránytáként tekintesz rá. 

A döntéseid mögött van saját koncepció, vagy csak követed az ajánlásokat? Ez különbözteti meg a tudatos stratégiát a puszta reagálástól.