A két pszichológus.

Miután elolvastam a „A véletlenszerűség megtévesztése” és a „A fekete hattyú” könyveket, megszállottjává vált a véletlenség fogalmának megértése. Az előbbi könyv gyújtotta meg bennem a tüzet, a későbbi pedig üzemanyagként hatott. Azonban furcsa módon egy új területre tereltek át, amely erősen párosult a szakommal, azaz a számítástechnikával.

Elkezdtem gondolkodni, hogy a véletlenszerűség és különösen a véletlenszerű bitváltások egy számítógépben összefüggenek a kvantumvilág bizonytalansági elvével és a körülöttünk, különösen a tőzsdéken látható bizonytalansággal?

Az igazat megvallva először azt hittem, hogy ez egy eredeti ötlet. De aztán rájöttem (sajnos!), hogy sok kutatás folyik ezen ötletek körül. Egyetlen szervezet sem tudja a végleges választ, de a kutatók gyönyörű ötletekkel álltak elő, amelyeket meg akarok osztani mindenkivel. Tehát kezdjük.

Összefoglaló

Először hadd vegyek egy anekdotát „A fekete hattyú”-ból. Az NNT szerzője kérdést tesz fel egy Fat Tony nevű üzletemberhez és egy matematikushoz, Dr. Johnhoz.

NNT(a szerző): Tételezzük fel, hogy egy érme tisztességes, azaz egyenlő valószínűséggel emelkedik fel a feje vagy a farka, amikor feldobják. Kilencvenkilencszer megfordítom, és minden alkalommal
fejet kapok. Mekkora az esélye annak, hogy a következő dobásom alkalmával farokot kapok?
Dr. János: Triviális kérdés. Természetesen az egyik fele, mivel mindegyikre 50
százalékos esélyt és a döntetlenek közötti függetlenséget feltételezi.
NNT: Mit szólsz, Tony?
Kövér Tony : Természetesen legfeljebb 1 százalékot mondanék.
NNT: Miért? Feltételeztem, hogy egy tisztességes érme, ami azt jelenti,
hogy mindkét esetben 50 százaléka volt.
Kövér Tony: Vagy tele vagy szarral, vagy csak egy balek a vásárlás hogy „50 százalékos” üzlet. Az érmét be kell tölteni. Ez nem lehet tisztességes játék.
(Fordítás: Sokkal valószínűbb, hogy a méltányosságra vonatkozó feltételezéseid
tévesek, mint az, hogy az érme kilencvenkilenc dobással kilencvenkilenc fejet ad.)
NNT: De Dr. John azt mondta, hogy 50 százalék.
Kövér Tony (suttogva a fülembe): Ismerem ezeket a fickókat a nerdtel
példák a bank napjaiból. Túl lassan gondolkodnak. És túlságosan
árucikké váltak. Elviheted őket egy körre.

Szóval szerinted kinek van igaza ebben a történetben?

A valószínűség törvényei azt mondják, hogy Dr. Johnnak igaza van, de valami mélyen bennünk kényszerít bennünket, hogy elfogadjuk Tony válaszát. Csak nem süllyed el az intuíciónk.

Tehát rossz a megérzésünk a véletlen eseményekről? Bízzunk a megérzéseinkben vagy a valószínűségelméletben? Találjuk ki.

Algoritmikus információelmélet

Ez a fajta probléma két pszichológust, Daniel Kahnemantot és Amos Taverskytt zavarta még 1982-ben. Az újság szerint „Az ember, állat információelméleti és algoritmikus megközelítése és a mesterséges megismerés»'

Kahneman, Slovic és Tversky (1982) híres munkája annak megértésére irányult, hogy az emberek hogyan érvelnek és hoznak döntéseket a bizonytalan és zajos információforrások mellett. Kimutatták, hogy az emberek hajlamosak sok hibára a véletlenszerűséggel és a valószínűséggel kapcsolatban. Például az emberek hajlamosak azt állítani, hogy a „HTTHTHHHTT” fejek vagy farok sorozata nagyobb valószínűséggel jelenik meg egy érme feldobásakor, mint a „HHHHHTTTTT” sorozat.
A „heurisztika és elfogultság” megközelítésben, amelyet az általa hirdetett. Kahneman és Tversky szerint ezeket a „szisztematikus” hibákat az emberi pszichológiában rejlő elfogultságként, vagy hibás heurisztika használatának eredményeként értelmezték. Például azt hitték, hogy az emberek hajlamosak azt mondani, hogy a „HHHHHTTTTT” kevésbé véletlenszerű, mint a „HTTHTHHHTT”, mert befolyásolja őket az úgynevezett reprezentatív heurisztika, amely szerint a sorozat véletlenszerűbb, jobban megfelel a véletlen sorozatok prototipikus példáinak. Az emberi érvelés úgy működik, mint egy hibás számítógép. Bár sok cikk jelent meg ezekről az elfogultságokról, okairól nem sokat tudunk

Tehát most feltesszük a kérdést: hibás-e az emberi intuíció, ahogyan Kahneman és Taversky leírta őket, vagy hinnünk kell a megérzéseinkben?

Kahneman és Taversky (a továbbiakban: K&T) elképzelései érvényesültek, miután Kahneman megkapta a Nobel-díjat a közgazdaságtanban 2002-ben. Taverskyezelőtt (rákban) hunyt el, különben ő is megkapta volna a díjat.

A közelmúltban azonban a K&Tnek ezeket a megállapításait megkérdőjelezik, és egy új valószínűségi elméletet alkalmaznak erre a problémára, amely jobban illeszkedik az emberi intuícióhoz, mint a klasszikus elmélet. Vagyis ahelyett, hogy azt mondanák, hogy az emberi intuíció a hibás, a kutatók a klasszikus valószínűségelmélet problémáit és az okokat próbálják kideríteni, hogy miért nem egyezik a mi gondolkodásunkkal.

Az „Apriori” azt jelenti, hogy mielőtt az esemény megtörtént volna. Például egy érme feldobása előtt feltételezem, hogy ha az érme megfelelő, a fej vagy a farok esélye fele, azaz P(Headvagy Tail) = 0,5. Ha azonban az érme nem tisztességes, akkor a P(Headvagy Tail) nem egyenlő 0,5-tel. Ezután módosítanunk kell az apriori valószínűségeinket.

K - Hogyan csináljuk ?

V - Többször fel kell dobnunk az érmét, hogy megtudjuk a fejek vagy a farok arányát. Tegyük fel, hogy az érme 500-szori feldobása után azt látjuk, hogy a fejek és a farok aránya 4:1. Egy kísérletező ezt követően, amikor az érmét használja, más apriorihite, mint a tisztességes érmének.

Most pedig értsük meg a valószínűségszámítás néhány alapvető jelölését, hogy megértsük, mit jelent a papír.

A P(A|B) azt jelenti, hogy az eseményAmegtörténik egy adott eseményB mellett > megtörtént. Például, ha A az esemény – „Esik az eső” és B legyen az esemény –, „A szerző egy esernyőnek. Így most a P(A|B) így értelmezhető: „az eső valószínűsége, ha a szerzőt esernyővel látják”. P(B) |A)t fordítva értelmezzük.

Az életünkre gyakorolt ​​hatás

Tehát a szerzők arra utalnak, hogy az emberi intuíció képes felmérni P(R|s)-et, azaz annak valószínűségét, hogy egy adott karakterlánc-sorozat véletlenszerű (igazságos) a P(s|R) helyett, azaz annak a valószínűsége, hogy egy adott s karakterlánc előfordul, mivel az érme véletlenszerű (igazságos). Kérem, szánjon egy percet, hogy ez az egész elsüllyedjen. Ezenkívül próbálja meg kiszámítani a „HHHHHTTTTT” és „HTTHTHHHTT” karakterláncok apriori valószínűségét. Tippelje meg, hogy a valószínűségük azonos!

Tehát van-e jobb módszer annak meghatározására, hogy egy adott karakterlánc véletlenszerű-e vagy sem? Kiderült, van.

Ez az új elmélet az „Algoritmikus információelmélet” elnevezésű ötleteket használja, amelyeket Ray Solomonoff javasolt 1960-ban, Andre Kolmogorov 1964-ben és Gregory Chaitin 1965-ben. Chaitin egyetemista volt, és még 1965-ben tinédzser volt!

Ezt követően sok zseniális dolgozatot írt, ami felkeltette az érdeklődésemet ez a téma. Tehát most értsük meg ennek az elméletnek a fogalmait egy maga Chaitin által írt cikkből.

Nézzük meg, mit mond Chaitin. A Randomness and Mathematical Proof című cikkéből származik, amely a Scientific Americanben jelent meg 1975 májusában.

Prediktív modellezés: -

Próbáljuk megérteni, amit Chaitin mond. Suppose, we have 2 strings i.e. “HHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHH” and another one generated by flipping a fair coin 33 times(random series) i.e. “THHTTHHTTTHTTHHHTTHHTHTHTHHHTTHHTTHH”. Utasításokat (programot) szeretnék írni egy gépre (számítógépre), hogyan kell kinyomtatni ezeket a nemeket.

Az első esetben azt írom: Nyomtasd ki a „H”-t 33-szor.

A második esetben nincs ismétlődő minta. Tehát írnunk kell – ki kell nyomtatnunk: „THHTTHHTTTHTTHHHTTHTHTHTHTHHTTHHTTHTHH”, azaz nyomtassa ki a teljes karakterláncot. Most képzeld el, ha a húrok millió és milliárd „H” és „T” karakter lett volna!

Tehát Chaitin azt mondja, hogy ha képesek vagyunk egy rövid utasítást írni egy bizonyos karakterlánchoz, akkor az kisebb mértékben véletlenszerű, mint egy karakterlánc, amelynek nincs mintája, és tisztán véletlenszerű. . Összhangban van ez megérzéseinkkel?

Nézzük újra a K&T által használt karakterláncokat, azaz a „HHHHHTTTTT” és „HTTHTHHHTT” karakterláncokat. A klasszikus valószínűségelmélet szerint mindkettő egyformán valószínű, de az AIT szerint a második karakterlánc nagyobb valószínűséggel véletlenszerű, és ennek megfelelően egy tisztességes érméből jött létre.

A dolgok jobb megértése érdekében térjünk vissza az NNTanekdotához a „A fekete hattyúban”, és most gondoljuk át, kinek volt igaza, Tonynak vagy Johnnak. Azt mondanám, Tony, mert tapasztalatai alapján tudja, hogy egy olyan esemény, mint az egymást követő 100 fej, kevésbé valószínű vagy majdnem lehetetlen. strong> egy tisztességesérme feldobásából, ezért némileg „dobozból” technikát alkalmaz, és azt mondja, hogy az érme nem lehet tisztességes. John azonban „a dobozon belül” marad, és a valószínűségi elmélet mellett dönt, és arra a következtetésre jut, hogy bármilyen eredmény egyformán valószínű.

Engem az zavar, hogy egy MBA felvételi vizsgán a hallgatónak Johnnal kell mennie, és „a dobozon belül” kell gondolkodnia. A kurzus alatt és még utána is ugyanannak a hallgatónak kell „dobozból” gondolkodnia, mint Tonynak.

Létezik egy régi közhely, az „ok előzi meg a hatást”, ami még mindig érvényes, de lehet, hogy nincs érthető ok a következmények mögött. Az ok alapvetően egy hatás leírásának rövid módja (szabálykészlete). De ahogy fentebb láttuk néhány esetben, a hatás oka maga a „hatás”! Gondolja át egy pillanatra, mielőtt továbblép.

Egy véletlenszerű karakterláncot nem lehet kisebb karakterláncba tömöríteni, ezért a karakterlánc leírásának egyetlen módja maga a karakterlánc. Nincs más mód ! Az ok talán néhány (több) véletlenszerű esemény összevonása is lehet.

Ha a világ véletlenszerű, miért vannak olyan tárgyak, mint a csillagok, bolygók és élőlények, amelyek tele vannak gyönyörű mintákkal?

Következtetés

De elmondhatjuk-e magunknak vagy másoknak, hogy egy bizonyos eseménynek nincs oka, és véletlenszerű folyamatok felelősek? Ezt egyetlen szervezet sem fogja megvenni.

Amikor prediktív modelleket építünk, szinte soha nem kapunk 100%-os pontosságot. Ha minden erőfeszítésünkkel 90%-os pontosságot kapunk, azt mondjuk, hogy a probléma egy része véletlenszerű. Az AIT megmutatja, hogy a véletlenszerűség a szürke árnyalataiban is előfordulhat, vagyis valami véletlenszerűbb lehet, mint mások.

Valójában, ha végigmész a legnagyobb versenyeken, amelyeket a „kaggle”-en rendeznek a prediktív modellépítésért, látni fogod, hogy bizonyos feladatoknál az elérhető legnagyobb pontosság ~60% (vagy még kevesebb), és egy esetben, azaz az első kihívásnál. A „Titanic: Machine Learning from Disaster” (gépi tanulás a katasztrófából) szerint az emberek 100%-os pontosságot értek el, a nyilvános ranglista szerint, azaz sikerült kiütniük a véletlenszerűséget, teljesen a képből! De ez csak egy problémára vonatkozik, a többi probléma nem 100%-os pontosságú. Vannak olyan adatkészletek is, ahol az 50% feletti pontosság (véletlenszerű) elérése nagy eredménynek számít. Tekintsük az Alibaba csoport kutatóinak „ezt az írását”. Ha megnézi a jelen dokumentum 4. táblázatát, látni fogja, hogy egy 5 címkés SST-1 adathalmaznál az eddig lehetséges legnagyobb pontosság csak 51,67%!

Az ilyen típusú kérdésekre többnyire az intelligens tervezésen keresztül adunk választ, ami igaz is lehet, de az AIT alternatív magyarázatot ad nekünk.

Az ismétlődő mintázatú dolgokhoz, mint a kagylóhéj, napraforgó stb., kevesebb utasítást vagy kis programot kell létrehozni. Gondoljunk csak a pi számra, mekkora a valószínűsége annak, hogy egy tisztességes (tisztán véletlenszerű) kockával (10 oldallal) dobunk 0 és 9 között, és az érme a pi számjegyeit 100 számjegyig dobja. Ennek kicsi az esélye vagy valószínűsége, azaz (1/10)¹⁰⁰, ami a nem. — 0.00000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000001.

A cikk szerzői – „Az emberi, állati és mesterséges megismerés információelméleti és algoritmikus megközelítése” – új paradigmának nevezték – „Az elmúlt évtizedekben paradigmaváltás ment végbe a kognitív tudományban. Az „új paradigma” – vagy Bayes-féle megközelítés – azt sugallja, hogy az emberi (vagy állati) elme nem egy hibás gép, hanem egy bizonyos típusú valószínűségi gép. Az emberi megismerés ezen felfogása szerint mindannyian megbecsüljük és folyamatosan felülvizsgáljuk
a világ eseményeinek valószínűségét, figyelembe véve az esetleges új információkat,
és többé-kevésbé követve a valószínűségi (beleértve a Bayes-féle) szabályokat.
Az ilyen irányú tanulmányok gyakran próbálják megmagyarázni valószínűségi hibáinkat a véletlenszerűségről vagy a valószínűségről szóló, nem megfelelő kontextusban alkalmazott intuícióval.
Például a közelmúltban megjelent egy matematikai és pszichológiai újraelemzés az egyenlő valószínűségi torzításról. [Gauvrit és Morsányi 2014]. A véletlenszerűség matematikai elmélete, amely az algoritmikus komplexitáson (vagy az entrópián, ahogyan ez megtörténik) alapul, valójában egységességet jelent. Így az az állítás, hogy az az intuíció, amelya véletlenszerűség egyformaságot feltételez, torzítás, nem illeszkedik a matematikai elmélethez. Másrészt, ha valaki a véletlenszerűség matematikai elméletét követi, el kell ismernie, hogy a véletlenszerű események
kombinációja általában már nem véletlenszerű. Így a kiegyenlítési valószínűségi torzítás (amely valóban torzítás, mivel gyakran ad hibás válaszokat a valószínűségi osztályban) vitatjuk, nem a véletlenszerűséggel kapcsolatos tévhit eredménye, hanem a helytelenség következménye. Az intuíció szerint a véletlenszerű események kombinálhatók anélkül, hogy befolyásolnák a véletlenszerűség tulajdonságait.
Most úgy gondoljuk, hogy ha össze kell hasonlítanunk annak valószínűségét, hogy egy tisztességes érme „HHHHHTTTTT”-t vagy bármely más 10 tételből álló sorozatot produkál, tényleg ne tedd. Ennek egyik oka az, hogy a kérdés természetellenes: agyunk arra épült, hogy a megfigyelt események okainak valószínűségét becsülje meg, nem pedig az ilyen események apriori valószínűségét. Ezért – állítják a kutatók –, amikor résztvevőink vannak, értékelik a megfigyelt események okainak valószínűségét. string s ="HHHHHTTTTT" (vagy bármely más), valójában nem becsülik meg annak valószínűségét, hogy egy ilyen zsinór megjelenik egy tisztességes érme feldobásakor, amelyet P(s|R)ként írhatnánk. > ahol az R a „véletlenszerű folyamat” rövidítése, de a fordított valószínűség P(R|s), vagyis annak a valószínűsége, hogy az érme tisztességes (vagy a karakterlánc valóban véletlenszerű), tekintettel arra, hogy s.
'

Az olvasó a kocka helyett érmékkel is elgondolkodhat ezen a kísérleten, ha a pi értékét bináris számjegyekben veszi figyelembe. Akárhogy is, az érvelés ugyanaz marad.

Ha most egy számítógépes programot szeretnék írni a pi kiszámítására, akkor csak azt írhatnám, hogy „nyomtasson (22/7) 100 tizedesjegyig”. Ez a kód jobb közelítést garantál, mint a véletlenszerű átfordulások. Ha jobb közelítésekre van szüksége, néhány további módszert tárgyalunk "itt".

Tehát még a sz. A pi, amelynek nincs ismétlődő mintája, miután több milliárd számjegyre szimulálták, kevésbé véletlenszerű, mint mondjuk egy véletlenszerű érmefeldobásból generált számjegy.

Azt akarom mondani, hogy a rendszeresség vagy a rend könnyebben megteremthető, ha AIT-ben gondolkodunk. Nem mondom, hogy ez erős érv, de ez egy újfajta gondolkodásmód a világról és annak működéséről empirikus bizonyítékok alapján.

A helyes következtetés az lenne, ha elmondanám, van-e összefüggés a kvantumszintű véletlenszerűség és a leginkább makroszintű, azaz a piacok között. De nem tudom a választ, és amennyire én tudom, senki másnak sem. De megvannak az eszközeink ahhoz, hogy tudásunkat ebbe az irányba fejlesszük.

Jó munkát végeznek ezen a területen, például ebben a Hector Zenilet al című írásában és Paul M.B. Vitanyit

A véletlenszerűség új definíciója az információelméletben gyökerezik, az elsősorban a második világháború óta kialakult tudomány, amely az üzenetek továbbítását vizsgálja. Tegyük fel, hogy van egy barátja, aki egy másik galaxis bolygóját látogatja meg, és nagyon drága táviratokat küldeni neki. Elfelejtette magával vinni a trigonometrikus függvénytáblázatait, és megkért, hogy adja meg azokat. Egyszerűen lefordíthatja a számokat egy megfelelő kódra, például bináris számokra, és közvetlenül továbbíthatja őket, de a hat függvény legszerényebb táblázata is néhány ezer számjegyből áll, így a költségek magasak lesznek. Sokkal olcsóbb módja ugyanazon információ továbbításának az lenne, ha utasításokat továbbítana a táblázatok kiszámításához a mögöttes trigonometrikus képletekből, például az Euler-egyenletből: e^ix = cosx + i(sin x) Egy ilyen üzenet viszonylag rövid is lehetne. benne rejlik az összes információ, amelyet még a legnagyobb táblázatok is tartalmaznak.
Másrészt tegyük fel, hogy a barátod nem a trigonometria, hanem a baseball iránt érdeklődik. Szeretné tudni a távozása óta lejátszott összes jelentősebb bajnoki mérkőzés eredményét. a Földet néhány ezer évvel ezelőtt. Ebben az esetben a legvalószínűtlenebb, hogy képletet találnának az információ rövid üzenetbe tömörítésére.
Egy ilyen számsorban minden számjegy lényegében független
információ
/strong> és nem lehet megjósolni a szomszédaiból vagy valamilyen mögöttes szabályból. Nincs alternatívája a teljes pontszámlista továbbításának.
Ebben a szeszélyes üzenetpárban a véletlenszerűség új definíciójának csírája rejlik. Azon a megfigyelésen alapul, hogy a véletlen számsorokban megtestesülő információ nem tömöríthető vagy redukálható kompaktabb formára. A tényleges definíció megfogalmazásakor nem egy távoli baráttal való kommunikációt célszerű figyelembe venni, hanem egy digitális számítógéppel. Lehet, hogy a barátnak van esze ahhoz, hogy következtetéseket vonjon le számokra, vagy részinformációkból vagy homályos utasításokból sorozatot hozzon létre. A számítógép nem rendelkezik ezzel a kapacitással, és a mi céljainkra ez a hiány előnyt jelent. A számítógépnek adott utasításoknak teljesnek és egyértelműnek kell lenniük, és lehetővé kell tenniük, hogy lépésről lépésre haladjon anélkül, hogy megkövetelné, hogy megértse az általa végrehajtott műveletek bármely részének eredményét. Az ilyen utasítások programja egyalgoritmus. Bármilyen véges számú mechanikus manipulációt követelhet meg a számokkal, de nem kérhet ítéletet a jelentésükről

Végezetül idézzük Hector Zenilt és munkatársait ebből a „cikkből”.

Az új megközelítés azt sugallja és számszerűsíti, hogy az elme hogyan viselkedhet inkább algoritmikusan, mint statisztikailag. Egy kézenfekvő példa a memorizálásból, amely megjeleníti az elme algoritmikus erejét, magában foglalja egy meglehetősen hosszú sorozat megtanulását, amelynek azonban van egy rövid leírása
(vagy képlet), amely létrehozhatja a hosszabb sorozatot. Ebben az esetben (felül) könnyen megjegyezhető az egymást követő számjegyek sorozata a 10-es bázison, mert minden számjegy az előző számjegyek összege plusz 1, ami statisztikailag
közelít (középen) nem tudták jellemezni, de az új módszerek (alul) igen. Az elme algoritmikus jellege a világ algoritmikus természetének visszatükröződése (Zenil et al. 2012), amelyet az elmeaz elme a világban való navigáláshoz használ fel, kihasználva annak statisztikai és algoritmikus szabályszerűségeit. A számítógépes program olyan, mint egy matematikai képlet. Javaslataink azonban nem azt jelentik, hogy az elme egy számtörő, aki megpróbálja megtalálni az adatok mögött rejlő matematikai képletet, hanem azt, hogy az elme nemcsak statisztikai, hanem algoritmikus értelmet is próbál adni a világnak. > Vagyis megpróbálunk olyan mintákat tanulni, amelyek vagy statisztikai mintákat jelenítenek meg, vagy algoritmikusan tömöríthetők, de ez nem jelenti azt, hogy az elme ne találja meg mindig sem a legrövidebbet, sem a rövidebbet, sem a hatékony algoritmust. Valójában a probléma még a Turing-gépek számára is kiszámíthatatlan, és nyitott kérdés
, hogy vajon az emberi elme számára-e (Zenil és Hernandez-Quiroz 2007), de az elme fel van szerelve erre, ellentétben a gyakorlatban alkalmazott korábbi feltételezésekkel, amelyek az egyszerű statisztikai mintafelismerés
en túl figyelmen kívül hagynák az ilyen képességeket”

Véletlenszerűség és determinizmus mindennapi életünkben

Merre tart az univerzum?