La Capacita’ Umana di Riconoscere le Menzogne. I Lie-detectors et Similia. L’Ordinamento Giuridico Italiano.

And after all, what is a lie? Tis but

The truth in masquerade; and I defy

Historians, heroes, lawyers, priests to put

A fact without some leaven of a lie.

The very shadow of true truth would shut

Up annals, revelations, poesy,

And prophecy …

Praised be all liars and all lies!

Lord Byron, Don Juan

NOTA: La bibliografia e l’indice sono reperibili nell’articolo che, a breve, sarà pubblicato in esclusiva su questo sito internet in PDF.

Introduzione: la capacità umana di saper riconoscere le menzogne

Nonostante molti ritengano che l’Homo Sapiens Sapiens abbia sviluppato la capacità di riconoscere le menzogne, come parte del suo adattamento filogenetico[1] (Swanson C. R., Chamelin N. C. et Territo L., 1996); di contro, prove empiriche e sperimentali (research findings) suggeriscono altro. La “specie umana” non è stata in grado di sviluppare questa abilità come adattamento filogenetico[2], neppure come apprendimento attraverso l’esperienza. Alcuni studi indicano che non c’è differenza statisticamente significativa fra “il tirare a caso” ed il provare a riconoscere le menzogne (Ekman et O’Sullivan, 1991). Altre ricerche riportano “come” la capacità di riconoscere le menzogne sia inferiore al caso (Porter S., Woodworth M. et Birt A. R., 2000).

Sebbene molte persone si credano capaci di riconoscere le menzogne, pochissime[3] sono capaci di ottenere risultati migliori del “tirre a caso” (Bartol C. R. et Bartol A. M., 2004; De Paulo et Pfeifer, 1986; Kraut et Poe, 1980).

Soltanto gli Agenti della CIA (Central Intelligence Agency) sono riusciti a riportare risultati migliori. Alcuni studi riportato performace del 64% (Ekman et O’Sullivan, 1991). Il che, sigifica fallire 1/3 delle volte.

La metodologia usata è l'”analisi” della comunicazione verbale e non verbale. E’ creduto che, chi mente, sia nervoso per un “innato” senso di colpa. La tensione, il disagio emotivo conseguente, si riflette sui comportamenti osservabili.  Exempli gratia: guardare in basso; evitare di guardare l’interlocutore negli occhi; muovere il pollice in “circolo”; sperimentare secchezza in bocca (Swanson C. R.; Chamelin N. C. et Territo L., 1996; Segrave K., 2004). Gli antichi cinesi, su tali premesse, inventariono il primo lie-detector: masticare un “pugno di riso”. Sputato si inferiva se la persona aveva mentito dal grado di secchezza e/o di umidità che aveva.

Conformemente a Segrave K. (2004), alcune di queste metodologie sono riportate anche negli antichi Veda: i testi sacri della religione Induista (e delle sue precedenti forme: Vedismo e Bramanesimo).

La ricerca psicologica, fisiologica ed etologica, ha suggerito che l’essere umano “tende” a modificare la comunicazione verbale e non verbale quando mente. Secondo Ekman, O’ Sullivan, Friesen et Scherer (1991), la combiazione delle clues verbali e non verbali porta a risultati del 86%. Il loro studio, però, non è stato confermato da altra letteratura.

Secondo Vrij A. (2000), le persone non sono in grado d’usare le “clues” verbali e non verbale per riconoscere le menzogne poichè: “observers do not want to detect a lie“.

Di contro, è mia opinione che: l’incapacità sia una l’impossibilità. Essa è immanente all’ambivalenza del comportamento umano. Ogni manifestazione comportamentale, fisiologica e/o neuronale, può conseguire ad una pluralità di fattori diversi.

Da ciò deriva l’impossibilità della Scientia a porre legami bicondizionali fra i data comportamentali, fisiologici e/o neurologici, e l’intenzione e/o l’attività del mentire. Nella migliore delle ipotesi, esiste solo un condizionale materiale del tipo: (1) per ogni x; (2) Se p (x) allora q (x). Tradotto: (1) valido per tutti gli esseri umani; (2) Se un essere umano mente, allora mostra una reazione fisiologica. Di contro, altre volte abbiamo teorie che poggiano solo su un condizionale materiale del tipo: (1) per alcuni x; (2) Se p (x), allora q (x). Non mancano quelle semplicemente sbagliate.

Come spiegherò infra, nessuna teoria basata su un condizionale materiale permette d’inferire “qualcosa” partendo dal conseguente q (le clues comportamentali e/o fisiologiche e/o neurologiche).

Ciò è provato dal fatto che: non esiste un relazione reciproca (che lega bi-univocamente ed esclusivamente) le due variabili considerate p e q. Non c’è neppure una relazione diretta fra p e q[4].

Di contro, la relazione è:

(1) indiretta. Il conseguente q non è causato da p (il mentire) ma da una terza variabile (mediatore) che funge da ponte: l’arousal. Questa variabile viene attivata da una pluralità indefinita ed indefinibile d’altri fattori n.  Pertanto i data osservati indicano solo presenza di arousal.

(2) Questa relazione indiretta è pure duplicemente condizionata. E’ condizionato sia il nesso causativo fra il “mentire” e l’arousal, sia il nesso causativo fra l’arousal ed i “cambiamenti fisiologici”. Esistono quindi altre variabili chiamate moderatori che influiscono sulla “forza della relazione”. Esse possono modulare e/o eliminare l’influenza che la variabile indipendente ha sulla variabile dipendente.

Exempli gratia, tutte le verbal and not verbal clues citate dalla letteratura (variabili dipendenti) sono “indicatori” d’uno stato di arousal (mediatore) che può essere cagionato da qualunque emozione (variabili indipendenti). Il conseguente q, pertanto può avere come antecedente sia p (il mentire) e/o sia non-p (non mentire).

L’arousal, infatti, consegue all’attivazione del sistema autonomo simpatico ed all’asse ipotalamo-ipofisi-surrenali. Pertanto, oltre a conseguire a “qualsiasi” altra emozione, consegue anche a cause fisiologiche.

Alcuni esempi.

L’eye blinkings è considerato come un indicatore comportamentale di menzogna (Karpardis, 2005; Bartol C. R. et Bartol A. M. 2004). Di contro, molte ricerche non confermano tale relazione (Mehrabin, 1971).

L’ampliamento dell’apertura degli occhi (open wider the eyes) è considerato come indicare di menzogna da Swanson C. R., Chamelin N. C. et Territo L. (1996), significa solo sorpresa e/o il desiderio di “vedere meglio” (Eibel-Eibelfeldt, 1993).

Un più alto “pitch of voice” considerato da Kapardis (2005) come indicatore di menzogna presenta forte correlazione con la comunicazione intima (Eibel-Eibelfeldt, 1993).

Etc … etc … .

Tutte le clues possono far inferire solo uno stato di arousal. Qualunque altra deduzione (tratta dalla sua assenza o presenza: verità; menzogna; paura; senso di colpa; ansia; n …) è pura interpretazione retrospettiva a là Weick (1995). Significati verosimili non legati alla Veritas, ma ad obbiettivi e/o fini ricercati dal sencemaker. Anche qualora vi fosse un sencemaker “neutrale” (privo d’un particolare obbiettivo e/o fine), essi sarebbero sempre espressione d’una “prospettiva situataa là Marcus et Clifford (1986) e /o d’un frame.

Solo il soggetto interessato, mutatis mutandi, può conosce: se mente, oppure no; se mente sul mentire, oppure no. Tutto il resto è “gioco di prestigio”. Mercanzia venduta dagli scienziati alle fiere che, come osti col vino, dicono essere la migliore!

Dal “per tutti gli x” al “per alcuni x”

Ogni persona reagisce in maniera differente da ogni altra. Questo risulta in un condizionale materiale valido solo per alcuni x.

Tutti i giocatori di poker lo conoscono.

Non esistono behavioural patterns universali applicabili in modo standardizzato a tutti i soggetti (per ogni x).

La letteratura lo conferma. Akehurst et al. (1996) e Kapardis (2005) affermano che le persone riconoscono meglio le proprie pattens comportametali piuttosto che quelle degli altri. In altre parole, affermano l’esistenza di patterns comportamentali differenti da persona a persona.

L’effetto “guardia e ladro” fà il resto. Pensate alla dialettica esistente nell’informatica fra hakers ed espertiti di cybersecurity. I secondi cercano tecnologie sempre più complesse per impedire ai primi d’accedere da un sistema informatico; gli altri fanno l’opposto, in un “gioco infinito”. Il limite della nuova tecnologia è valido solo: per alcuni x.

Coi lie-detectors et similia è lo stesso. Alcuni sviluppano sistemi sempre più sofisticati per scoprire la menzogna. Altri imparano a mentire sempre in modo più sofisticato. Quest’ultimi riducono i lie-detectors a proprio favore e/o servire i propri fini. Dal judicium Dei al judicium Scientiae, il risultato è sempre lo stesso: l’innocente perde.

Nessuno può vincere all’interno di questa relazione dialogico ricorsiva che alimenta se stessa in un ciclo vizioso.  Per vincere, bisogna uscire da essa e tornare a guardare i FATTI!

Chi si ricorda di Luca?

“… ogni albero si riconosce dai suoi frutti …” (6, 43-45)[5].

E’ inutile usare radars con “aerei invisibili”. Di contro, una “vedetta” li vede!

Gli esperti di lie-detectors non pensano così. Come affetti da un disturbo cronico recidivante, ritengono il limite proprio di “quella particolare” tecnologia e/o metodologia. Così chiedono altri fondi per sviluppare nuove tecnologie in un infinito ciclo vizioso. Ma il limite è ontologico e resterà immanente ad ogni tecnologia. Semplicemente, assume, di volta in volta, forme diverse e/o ricade su “piani” differenti.

Gli scienziati non l’anno capito; i teologi morali e gli escatologi: sì. L’idea d’un Giudizio Divino (nel quale un Giudice onnisciente è capace di riconoscere il vero dal falso) è stata abbandonata. Si è passati all’“auto-giudizio”. E’ la stessa anima a giudicare se stessa in virtù della sua coscienza. In altre parole, si riconosce l’ovvio. Solo il soggetto può sapere cosa sia vero o falso nella Sua Vita.

Pertanto, per quanto “some behaviours are more likely to occur when people are lying” (Vrij, 2000) non è possibile uscire dal condizionale materiale. Il conseguente q può derivare (e.g.): sia, da un arousal causato da un “senso di colpa” per aver mentito; sia, da una arousal causato dalla situazione spiacevole in cui l’innocente si trova (Swanson C. R., Chamelin N. C. et Territo L., 1996).

L’errore logico sottostante ad ogni lie deterctors et similia

Esiste un comun minimo denominatore alla base d’ogni bias ed errore dei lie-detectors.

Le teorie scientifiche, fondate sull‘induzione e sulla probabilità statistica, legano phenomena solo con condizionali materiali.

Nel nostro caso, fra il conseguente (elemento oggettivo: cambiamenti comportamentali, fisiologici e neuronali) e l’antecedente (elemento soggettivo: l’intenzione di mentire) c’è un condizionale materiale non un bicondizionale. Di contro, le persone (giudici; scienziati; criminologi; periti; comuni cittadini) lo dimenticano. Esse sostituiscono al condizionale materiale il bicondizionale nel fare le inferenze sui casi singoli!?!?

I lie-detectors rilevano la presenza e/o l’assenza del conseguente (variazione fisiologica). Il conseguente è posto come premessa minore d’un sillogismo condizionale del tipo modus tollens.

Come dimostrato dalla psicologia cognitiva, la stragrande maggioranza delle persone cade in fallacia se poste dinanzi ad un sillogismo condizionale. Nel modus tollens, affermato il conseguente, affermano erroneamente l‘antecedente. Nel modus ponens, negato l’antecedente, negano erroneamente il conseguente. Di contro, in entrambi i casi nulla può essere inferito.

Esplicitiamo il sillogismo condizionale - modus tollens:

  • la premessa maggiore è l’ipotesi scientifica che lega una variabile ad un’altra (la menzogna ad un cambiamento fisiologico): Se p allora q.
  • la premessa minore è data dai data rilevati dai lie-detectors (la presenza dei cambiamenti fisiologici): allora q;
  • la conclusione erronea sta’ nell’affermare l’antecedente p. Dato che c’è variazione fisiologica, Tizio mente.

La struttura logica è:

(1) se p allora q;

(2) affermo q;

(3) concludo p !?!?.

Perché avviene?

Le persone (inclusi gli esperti) sostituiscono al condizionale materiale un bicondizionale (se, e solo se, p allora q[6].  Le inferenze erronee commesse, infatti, sarebbero corrette in quest’ultimo caso.

Come si arriva a sostituire il condizionale materiale con un bicondizionale?

Faigman D. (2010) ci ha dato un indizio. Scienziati e Giuristi non riflettono sul rapporto intercorrente fra: Scienza e Diritto. Esse sono discipline ontologicamente diverse: ragionano in modo diverso; usano logiche diverse; si occupano di questioni diametralmente opposte.

La Scienza usa il metodo induttivo. Osservando una pluralità di casi (samples), inferisce un legame statistico e probabilistico fra due phenomena alias: un antecedente p; e, un conseguente q. Le leggi scientifiche sono leggi probabilistiche. Alla scienza non interessa sapere se Tizio ricade nell’occorrenza O (oppure no). Alla Scienza intessa sapere la frequenza che hanno i membri x d’una popolazione infinita M a ricadere nell’occorrenza O. Le sue leggi sono basate sul condizionale materiale.

La molteplicità delle teorie atte a spiegare gli stessi phenomena sono conseguenza di ciò. Ognuna d’esse lega uno stesso conseguente q ad n antecedenti p diversi.

La Scienza e lo scienziato nulla può dire sul caso singolo, salvo che l’osservi direttamente. Ma, in tale evenienza, però, non serve né la Scienza, né lo scienziato, ma il testimone!

Di contro, il Diritto usa la deduzione. Partendo da “fatti certi” (assunti attraverso l’istruttoria nel contradittorio e posti come assiomi e/o premesse del suo ragionamento), ha l’obiettivo d’affermare se un caso singolo e specifico cada (oppure no) nell’occorrenza O. Al diritto non interessa sapere la frequenza che i membri x d’una popolazione infinita M hanno di ricadere nell’occorrenza O. Al diritto interessa stabilire ed accertare solo se Tizio (alias: quell’unico soggetto) sia fra le persone che ri-entrano (oppure no) nell’occorrenza O.

Il ragionamento giuridico non è un ragionamento probabilistico, ma deduttivo governato dal principio di determinatezza e bivalenza. Nel giudizio c’è un solo stato di verità che può assumere solo due valori: vero e/o valido; falso e/o invalido. Il principio del terzo escluso non ammette altre vie. Il giudice, quindi, ha un compito ben diverso rispetto a quello dello scienziato. Questo si riflette nell’uso di logiche e ragionamenti diametralmente opposti.

Non ha senso per il diritto dire che Tizio potrebbe rientrare all’80% in O. Se si condanna su tale base, tanto vale condannare “a caso” l’80% d’una intera popolazione M perché lo dice una teoria! Questo è scientismo; nulla di diverso del fideismo. Pertanto su tale sola base: o, si assolve sempre (poiché mai c’è certezza); o, si condanna sempre (poiché c’è per tutti una maggior probabilità). Di contro, la decisione deve essere basata su altri fattori.

Pertanto, le teorie scientifiche non trovano alcuna applicabilità nel Diritto (alias: in un ragionamento sul caso singolo nel quale è da inferire l’antecedente p, provato ed affermato il conseguente q). Per inferire qualcosa occorre un bicondizionale. Così, Homo Sapiens Sapiens risolve il problema: ragiona come ci fosse il bicondizionale!

E’ pertanto evidente che la conoscenza probabilistica della scienza (col suo condizionale materiale) non ha alcuna utilità nel giudizio in quanto, anche se è capace di provare il conseguente q, non permette d’inferire alcun “ignoto” antecedente p. Quest’ultimo potrebbe essere dedotto solo da altri fattori. Quest’ultimi: (1) se esistenti, rendono inutile il ricorso al condizionale materiale della Scienza; (2) se assenti, non rendono possibile inferire nulla dal condizionale materiale della Scienza (usato come illustrato ut supra). Diversamente si ricade in nuove superstizioni, nuovi fideismi, nuovi feticismi, … mascherati da scientismo. Tutti frutti d’ideologie pericolose conseguenti al mito del progresso a là Hatch (2006).

Passare dalla prova sul conseguente all’affermazione dell’antecedente nel condizionale materiale è nulla di più d’un inganno sofista.

Quanto detto supra vale per un condizionale materiale del tipo: (1) per tutti gli x; (2) Se e solo p (x), allora q (x). Esso ci permette almeno d’affermare il conseguente q, accertato l‘antecedente p.

Di contro, la Scienza fornisce alcune leggi basate su un condizionale materiale diverso: (1) per alcuni x; (2) se p (x) allora q (x).  In questo caso, assolutamente nulla può essere dedotto! Non solo non è possibile inferire l’antecedente (una volta affermato il conseguente), ma neppure inferire il conseguente (una volta affermato l’antecedente). La regola vale solo per alcuni x, noi non sappiamo se il nostro x è fra questi oppure no.

Questo ci porta ad affermare che la Scienza si presta a moderni sofismi atta a “prostituirla” al servizio degli interessi economici e/o fini d’una parte.  Sofismi capaci di gabellare anche esperti privi d’una adeguata capacità critica logico-epistemologica.

Sofismi abbondantemente usati. A pochi interessa la Veritas; a molti interessa il Denaro, il Successo e la Posizione Sociale. L’Intelletto è venduto al migliore offerente e/o a “cosa” garantisce la Posizione Sociale, quando c’è. Di contro, quando c’è Ignoranza, vi cadono per errore e/o l’usano tratti in inganno. L’integrità è di pochi; la disonestà intelletuale di molti. La prima non paga mai; la seconda ricompensa sempre abbondantemente. I primi non sono mai ascoltati (sono visti come “rompiscatole”); i secondi sono acclamati dalle “piazze” (osannati come valorosi profeti del “progresso“)! Questa è la Scientia!

Nonostante l’evidenza dell’errore denunciato, esso avviene quotidianamente a tutti i livelli. Nelle Scienze Criminologiche, Psicologiche e Sociali domina incontrastato.

E’ necessario per i Giudici acquisire competenze interdisciplinari ed una capacità critica logico-epistemologica[7] al fine d’assolvere pienamente al proprio compito oltre che essere efficacemente un peritus peritorum capace di declinare la Scienza nel processo attribuendole il giusto “peso”.

Oggigiorno, l’essere peritus peritorum non è più limitato a decidere fra opposte consulenze, ma richiede la capacità di valutare ed attribuire il “giusto valore e significato” al dato scientifico senza cadere nello scientismo e/o nel feticismo tecnologico.

Questo non si realizza con Collegi Misti (composti da Giudici Togati ed Esperti non laureati in Diritto). L’Esperto (Giudice Onorario) deve sempre essere, prima di tutto, un laureato in Diritto con forma mentis giuridica. La conoscenza d’altre discipline deve conseguire a questo, legittimando l’ingresso onorario nella magistratura in veste di Esperto. Solo un esperto, così formato grazie alla forma mentis acquisita, può garantire:

  • una reale integrazione fra Diritto e Saperi diversi;
  • una reale comprensione del caso giuridico e di “come” declinare la Scienza in esso;
  • un effettiva capacità di dialogare, comprendere e comunicare, col Collegio e tutte le Parti processuali (parlandone la stessa Lingua).

Solo i Giuristi garantiscono una corretta amministrazione della Giustizia, la salvaguardia dell’Ordinamento Giuridico e dei suoi principii. Persone non laureate in Diritto, senza una forma mentis giuridica, non possono essere la Vox Legis e/o dei Giudici. Dovrebbero limitarsi al ruolo d'”expert witnessall’occorrenza.

Da cosa scaturisce la perseveranza della letteratura nel sostenere la validità di tali strumenti? Perché qualcuno ci crede e li usa?

Nuovamente è la psicologia cognitiva che ci spiega la fallacia sottostate a tale perseverazione.

Tutte le teorie, ipotesi e/o informazioni, dovrebbero essere falsificate al fine di ritenerle valide od invalide. Di contro, le persone hanno la tendenza a verificare. Verificare “qualcosa” non è falsificare.

Il più delle volte, porta a confermare teorie e/o informazioni false. Ciò è frequente nelle scienze sociali ed in psicologia. Si cercano ed “ingigantiscono” gli elementi corroboranti; si trascurano e “minimizzano” quelli confutanti. Non solo, si arriva pure a creare eventi, comportamenti e situazioni, che non sarebbero mai esistiti se non ci fossero state quelle credenze (che per quanto false), condizionando gli atteggiamenti ed i comportamenti, creano ex post confermation bias. Creato quest’ultimo, poi si passa a convalidare la falsa credenza iniziale: post hoc, ergo propter hoc (Epis, 2011-2015)!

Questo tipo d’errore prospera in psicologia. La prova è studio di Rosenhan (1973).

Nell’esperimento fu data una informazione errata a psichiatri, psicologi ed infermieri. Essa fu che alcune persone erano “malate di mente”, quando ciò era falso. Tutti gli psichiatri, psicologi ed infermieri, della Struttura furono incapaci a riconoscere l’errore. Questo avvenne poiché nessuno cercò di falsificare l’informazione data. Di contro, tutti la posero a verificazione. La verifica fu data re-interpretando tutto il comportamento normale come sintomo della “inesistente malattia mentale”!

Questo è un esempio di come funziona la verificazione. Questo è un esempio del perché è necessaria la falsificazione che, in pratica, mai avviene in Psicologia!

Wason (1966) ha dimostrato la tendenza a verificare le ipotesi (non a falsificarle) con l’esperimento delle 4 carte.

Abbiamo su un tavolo 4 carte. Esse hanno dei numeri da un lato e delle lettere dall’altro. Le carte sono le seguenti:

  • la prima ha una “A”;
  • la seconda ha una “C”;
  • la terza un “2”;
  • la quarta un “3”.

La regola da “accertare” è: se le carte hanno una vocale su un lato allora esse hanno un numero dispari sull’altro. La forma logica è: (1) per tutti gli x; (2) se p (x) allora q (x).

La maggioranza delle persone, ovvero il 90%, sceglie di girare la carta con la vocale “C” e quella col numero pari “3”. Questi due “valori” corrispondono alle variabili logiche: “non-p“; e, “q“. Questi due valori sono irrilevanti al fine di valutare la correttezza della regola di questo condizionale materiale. Infatti, conformemente alla tavola di validità del condizionale materiale:

  • all’accadimento dell’antecedete non-p, può conseguire sia q e sia non-q;
  • all’accadimento al conseguente q, può antecedere sia p che non-p.

Il condizionale materiale, infatti, resta valido in entrambi i casi detti supra. In questo modo, ponendo a verifica la regola posiamo ritenerla vera anche se falsa. Solo falsificandola, possiamo accertare se la regola è vera. Per farlo dobbiamo girare “A” e “2”. “A” equivale a p; “3” a non q. Il condizionale materiale richiede che: (1) affermando p “A” debba conseguire q (un numero dispari sul retro) per essere valido; (2) affermando il conseguente non q “2”, l’antecedente non può essere p (una vocale).

Pertanto:

(1) la tendenza a verificare (non falsificare);

(2) l’esistenza del crud factor (Meehl, 1990a; 1990b)[8];

(3) l’esistenza della profezia che si auto-avvera (Merton, 1967)[9];

(4) l’esistenza del meccanismo del post hoc, ergo propter hoc (Epis, 2011-2015)[10];

(5) n

… giocheranno sempre a favore del convalidare “qualcosa” anche se errato.

Anche nella Scienza, infatti, salvo rari casi dove tutto è chiaramente bianco o nero, il resto è grigio. Nel grigio, si può corroborare “tutto quello che si vuole” per i motivi indicati supra. Cosa corroborare è solo una scelta politica e/o d’interesse. Tale corroborazione non prova che il fatto sia vero.

Dalla Logica alla Retorica

Mentre la struttura formale della sentenza assume la forma logica del sillogismo (dando l’illusione della correttezza di quanto affermato da essa), le premesse assunte come argomenti ricadono nel libero arbitrio. Tutto quanto attiene all’interpretazione della fattispecie giuridica e fattuale spesso presenta doppie valenze e/o si presta a n letture diverse. Exempli gratia, ciò è possibile agendo sul contesto e/o sulle prospettive situate e/o sull’interpretazione (che è sempre retrospettiva a là Weick).

Pertanto la logica formale non è applicabile a ciò che diviene premessa del sillogismo. A questo livello agisce solo la logica dei valori a là Perelman. Quest’ultima serve solo a rendere razionale (e promuovere consenso su) una scelta presa e fatta a priori rispetto all’argomentazione adottata.

La scelta consegue ad un interesse; l’argomentazione alla scelta. Quest’ultima ha l’obbiettivo di rendere razionale e condivisibile la scelta, nascondendo l’interesse per il quale è stata fatta!

L’argomentazione non è il motivo della scelta, ma la conseguenza di essa.

Non solo. Le premesse possono conseguire alle fallacia logiche quali quelle esaminate supra del sillogismo condizionale.

Altre derivano da costrutti contradittori dai quali è possibile affermare tutto e l’opposto di tutto. Ex falso quodlibet. Questo accade spesso nelle Scienze Psicologiche e Sociali. Epis (2006; 2015) dà un esempio di ciò applicato al costrutto della personalità antisociale. 

Gli strumenti tecnologici per il riconoscimenti delle menzogne: i lie-deterctors

Voice lair detectors e/o psychological stress evaluetor PSE

Conformemente a Kapardis (2005) e Bartol C. R. e Bartol A. M. (2004), il PSE si basa sui seguenti assunti: 1) quando una persona mente avvengono dei cambiamenti nella sua voce; 2) questi cambiamenti sono causati da una serie di mutamenti fisiologici nel soggetto; 3) questi mutamenti fisiologici sono determinati dalla condizione di stress (arousal) prodotta dal mentire.

Pertanto il PSE cerca di identificare nella voce tutti quei “low frequency changes” (difficili da rilevare attraverso l’orecchio umano) al fine di poter riconoscere un incremento di arousal. Quest’ultimo produrrebbe dei micro-tremori nelle corde vocali e nella muscolatura coinvolta. Nonostante l’entusiasmo iniziale e la sua ampia utilizzabilità (Karpadis, 2005; Segrave K., 2004), diversi studi hanno riportato come il PSE non riporti performance migliori rispetto al “tirare a caso” (Karpadis, 2005; Bartol C. R. e Bartol A. M., 2004).

L’errore, come detto supra, è nei presupposti. Lo strumento rileva mutamenti fisiologici legati all’arousal non alla menzogna.

Che il legame fra i mutamenti fisiologici in questione e la menzogna sia un condizionale materiale è dimostrato da Lykken D. T. (1988) e Eibl-Eibelsfeldt (1993). Micro variazioni nella voce possono conseguire anche quando il soggetto dice il vero. Exempli gratia, qualora si senta a disagio (si pensi al contesto dell’interrogatorio) e/o qualsiasi fattore attinente alla dimensione affettivo-emotiva genera con l’interlocutore.

Poligraph (Rilevant-Irrilevant technique R-I; control question test CQT; guilty knowledge test of information test GKT)

I poligragh sono strumenti tecnologici che, rispetto al PSE, hanno una maggiore “sensibilità” nel rilevare stati di arousal. Questo “vantaggio”, però, è controbilanciato dall’avere una minore versatibilità. Lo strumento misura una pluralità di cambiamenti fisiologici. Da questo deriva il nome: poly (molte); graph (misure). L’assunto alla base del suo funzionamento è il seguente: i cambiamenti fisiologici sono legati alla comparsa d’uno stato di arousal. Esso sarebbe causato dalla “paura” d’essere identificato come mentitore (Howitt D., 2002).

Pertanto, in via preliminare, possiamo notare lo stesso errore logico descritto supra. Non è possibile porre il connettivo logico, bicondizionale, fra il conseguente “mutamenti fisiologici” (arousal) e l’antecedente “paura d’essere scoperti come mentitori”.

Conformemente a Bartol C.R. e Bartol A. M. (2004), Kapardis (2005), Raskin D. C. (1989) e Vrij A. (2000), esistono diverse tecniche utilizzabili per rilevare le risposte fisiologiche attraverso il poligraph. Queste sono: R-I (relevant – irrelevant technique); CQT (control question technique); GKT (guilty knowledge test or Information test). Queste sono le tre metodologie maggiormente utilizzate.

Oltre ad esse, esistono altre tecniche meno usate quali: relevant – relevant procedure (Bartol C. R. e Bartol A. M., 2004); direct lie control test (Raskin D. C., 1989). La prima è stata una tecnica sviluppata per risolvere alcune debolezze metodologiche del R-I method. La seconda, di contro, è stata un tentativo di risolvere alcune criticità emerse col CQT.

Rilevant-Irrilevant technique R-I

La tecnica R-I si basa sull’assunto che: la paura di essere identificati come bugiardi produce differenti risposte fisiologiche nel soggetto “to rilevant question over the irrilevant ones” (Bartol C. R. e Bartol A. M., 2004). Questo assunto, per le ragioni viste supra, non è sempre vero. L’arousal misurata è legata solo ad uno stato di attivazione emotivo. Pertanto, l’attività fisiologica può accadere anche quando uno dice il vero (Bartol C. R. e Bartol A. M., 2004; Gale A., 1988). L’ansia sperimentata da un innocente è sufficente a causare risposte positive alle rilevat question (Kapardis, 2000). Questa metodologia non ha raggiunto neppure accettabili livelli di validità interna ed esterna (Raskin D. C., 1989).

Control question test CQT

Il metodo CQT si avvale di tre tipi di domande: le domande neutrali; le domande rilevanti; le domane di controllo (Bartol C. R. e Bartol A. M., 2004; Vrij A., 2000; Raskin D. C., 1989). La sua peculiarità è nelle domande di controllo. Attraverso le domande di controllo si cerca di rilevare il tipo di risposta fisiologica data dall’organismo quando cerca di negare un comportamento supposto comune a tutti. La reattività fisiologica emersa viene poi confrontata con la reattività fisiologica mostrata nelle relevant questions (Vrij A., 2000; Raskin D. C., 1989). C’è solo una pecca. Negare un comportamento fatto da tutti, indica imbarazzo nell’affermarlo. Quindi l’arousal misurata è quella dell’imbarazzo. Non è quella del “senso di colpa per aver mentito” e/o per la “paura d’essere scoperti mentitori”!

Altri problemi di questa metodologia rilevati dalla letteratura sono: (1) la difficoltà intrinseca nel costruzione le domande di controllo “that will elicit stronger physiological responses in innocent than relevant question about crime” (Bartol C. R. e Bartol A. M., 2004; Vrij A., 2000; Raskin D. C., 1989); (2) la rilevazione di arousal emotivo in soggetti innocenti causato da ragioni che nulla hanno a che vedere col senso di colpa per l’aver mentito (Vrij, 2000); (3) la debolezza dei fondamenti teorici su cui è basato (Ben-Shakher G., 2002); (4) una inadeguata standardizzazione (Ben-Shakher G., 2002); “lack of objective quantification of the physiological responces” (Ben-Shakher G., 2002); (5) il problema della “contaminazione” dalle risposte non-fisiologiche (Ben-Shakher G., 2002); (6) la credenza che i soggetti esaminati hanno sull’infallibilità del test (Vrij, 2000). Exempli gratia, qualora i soggetti esaminati non credono che il test sia uno strumento infallibile, essi non emetteranno risposte fisiologiche utili ai fini della validità del test.

 Guilty knowledge test o information test GKT

Il GKT è considerata la metodologia migliore per rilevare le menzogne (Bartol C. R. e Bartol A. M., 2004; Ben-Shakher G. e Elaad E., 2002). Nonostante ciò, poco lavoro è stato fatto per la sua implementazione (Ben-Shakher G. e Elaad E., 2002).  Conformemente a Raskin D. C. (1989), Vrij A. (2000), Kapardis A. (2005), questo metodo utilizza domande costruite con “materiale non conosciuto” della scena del crimine. Le informazioni utilizzate possono essere conosciute solo dalle persone che sono intervenute sulla scienza del crimine (operatori) e dal reo (che lo ha commesso).

Il test assume la forma di domande a scelta multipla. Il suo scopo non è quello di rilevare la menzogna, ma la presenza di “guilty knowledge“. Quest’ultima è rilevata osservando l’eventuale presenza d’una forte risposta fisiologica in correlazione con le alternative che sono legate alla scena del crimine. Il miglior discriminatore fisiologico, per valutare la presenza o l’assenza di guilty knowledge, è dato dalle electro-dermal responces (Kapardis A., 2000; Raskin D. C.,1989).

Secondo Ben-Shakher G. e Elaad E. (2002), il CQT può risolvere molti problemi legati alle precedenti metodologie. Esso usa una procedura standard. Questo fa sì che tutti i soggetti sottoposti al test sono esposti alla stessa esperienza. Esso risulta capace di diminuire il rischio di bias indotto dalle risposte non-fisiologiche. Esso presenta un grado di accuratezza che può essere stimato da studi di laboratorio. E’ ipotizzata una riduzione dei falsi positivi.

Di contro, la validità interna (misurata in laboratorio) poco ci dice sulla validità ecologica. Questo metodo, ancora, dipende interamente sulla quantità di elementi non conosciuti al pubblico utili per creare un numero sufficiente di domande (Bartol C. R. e Bartol A. M., 2004).

Altri limiti sono dati dalla percezione ed attenzione del reo stesso. Il reo, infatti, potrebbe non aver percepito alcuni aspetti della scena del crimine notati da chi costruisce le domande (Vrij A., 2000). Ancora più banalmente, il reo potrebbe aver scordato molti elementi della scena del crimine (Vrij A., 2000).

Altri limiti sono dati da alcuni aspetti pratici: il numero esiguo di operatori capaci ad utilizzare questa metodologia (Bartol C. R. e Bartol A. M., 2004) in quanto non inclusa in molti programmi di formazione; il numero esiguo di casi criminali reali nei quali può essere usata (kapèardis A., 2005; Vrij A., 2000).

E’ stato rilevato anche che la guilty knowledge può essere presente anche in soggetti diversi dal reo (Vrij A., 2000). Un semplice testimone, che per non essere coinvolto neghi il fatto, può essere erroneamente qualificato come reo.

Per tali motivi, chi scrive considera errato concludere che il GKT protegge gli innocenti dall’essere sospettati e/o accusati erroneamente per un crimine non commesso come, di contro, fatto da alcuni (Kapardis A., 2005; Ben-Shakher G. e Elaad E., 2002).

Errori e Bias comuni nei poligraphes

Indipendentemente alla struttura logica posta a fondamento delle inferenze assunte, la letteratura presenta una pluralità di bias comuni a tutte le metodologie utilizzate nel poligraph.

L’esperienza degli operatori (Kapardis A., 2005); l’ultizzo di “contromisure” da parte degli esaminati atte a “contaminare” i data rilevati (Vrij A., 2000; Gudjonsson G. H., 1988; Ben-Shakher G. e Elaad E., 2002; Honts C. R. & Amato S. L., 2002); l’azione del confermation bias quando l’operatore ritiene l’esaminato il possibile reo (Howitt D., 2002); … ne sono un esempio.

Le contromisure non sono solo quelle apprese da soggetti con appositi training[11], ma anche tecniche comuni che chiunque può improvvisare al momento.

Nonostante alcuni autori dubitino dell’efficacia di quest’ultime (mordersi la lingua; tendere i piedi; contare le pecore; contare all’indietro; visualizzazioni; etc…), esistono una pluralità di studi che confermano come l’uso delle contromisure possa nullificare la capacità discriminativa del poligraph (Vrij A., 2005). Honts C. R. & Amato S. L. (2002) riportano diverse contromisure impiegate efficacemente con le differenti metodologie (R-I; CQT; GKT).

Le critiche più forti, in aggiunta, sono fatte contro i fondamenti teorici e metodologici sui quali i poligraph sono basati (Ney T., 1988; Lykken D. T., 1988).

Ney T. (1988) ha identificato quattro assunti posti alla base dei poligraph: (1) l’essere umano non può controllare le sue risposte fisiologiche ed i suoi comportamenti; (2) specifiche emozioni possono essere predette da specifici stimoli; (3) esistono specifiche relazioni fra alcuni parametri fisiologici ed alcuni comportamenti; (4) non esistono differenze nelle risposte fisiologiche delle persone. Lo stesso autore, dopo avere esaminato tali assiomi, conclude che sono tutti quattro errati. Le persone possono imparare a controllare le loro risposte fisiologiche; non esistono reazioni fisiologiche specifiche legate univocamente a specifiche emozioni (l’arousal è unica per tutte); le relazioni fra i diversi parametri delle emozioni sono deboli; l’attivazione fisiologica legata alle emozioni degli individui può variare.

Lykken D. T. (1988) sostiene come l’essere umano non abbia risposte fisiologiche specifiche e proprie del mentire. Sulla stessa linea è Bull R. M. (1988). In altre parole, questi autori provano empiricamente l’inesistenza d’un bicondizionale.

Un altro problema, poco considerato in letteratura, è l’incapacità dei lie-detectors di distinguere fra menzogne e false memorie. Un soggetto può risultare veritiero anche se dice il falso qualora riporti una falsa memoria e/o sia convinto di dire il vero.

Allo stesso modo, un soggetto che dice la verità può passare per mentitore se è stato portato a dubitare d’essa (e.g.: condizionamento sociale; pressione sociale; interrogatori di polizia “poco ortodossi”; etc…).

Tutte queste critiche sono fondate dall’elevata percentuale di errore dei poligraph. In particolare, per i motivi logici descritti supra, il livello dei falsi positivi è maggiore rispetto ai falsi negativi (Carroll D., 1988).

Anche la reliability emersa dagli studi di laboratorio (Ben-Shakher G. e Elaad E., 2002) è stata criticata (Howitt, 2002). Quest’ultimo autore afferma che la validità interna ottenuta negli studi di laboratorio non possa dare alcuna validità ecologica. Il contesto emotivo dei due settings è fortemente diverso. Una cosa è fallire il test in una simulazione di laboratorio; altra cosa è fallire il test durante una indagine criminale. Non a caso, persone con alibi deboli (seppur innocenti) preferiscano confessare falsi crimini per ottenere conseguenze penali assai più tenui, piuttosto che dichiararsi innocenti contro un lie-detector, rischiando sanzioni penali molto più pesanti.

Per tali motivi, non sono d’accordo con chi sostiene che: la confessione d’un falso crimine (dopo un polygraph positivo) consegue al dubbio creato da questo sulla memoria (Vrij A., 2000). Di contro, è assai più probabile che sia la scelta razionale di chi si trova d’innanzi un sistema giuridico basato sulle fallacie logiche dette supra che portano l’innocente a confessare “falsi crimini” per ottenere conseguenze giuridiche miti.

Ciò è provato in Italia nella giurisdizione tributaria. Lo spesometro e gli studi di settore possono essere visti “come” lie-detectors sulla verità o falsità della dichiarazione del contribuente. Ricevuto un accertamento basato sullo spesometro e/o studi di settore, nessuno dubita sulla propria memoria e/o innocenza. Il contribuente fa solo una valutazione razionale fra i costi per resistere in giudizio (con il relativo rischio sull’esito) ed i costi conseguenti la definizione agevolata della controversia (ammettendo l’illecito non commesso). Di contro, la definizione agevolata fatta dall’innocente (come scelta razionale) viene usata dall’Agenzia delle Entrate come confessione dell’illecito e della colpevolezza e, pertanto, della validità dello strumento usato per scovare i bugiardi!!

Metodologie con fMRI

La risonanza funzionale elettromagnetica fMRI è stata proposta come possibile soluzione alle debolezze del PSE e del Poligraph.

Come il GKT, la fMRI cerca di rilevare guilty knowledge.

Ciò è fatto osservando le neuro-immagini delle aree dell’encefalo attivate.

Secondo Kapardis A. (2005), questa metodologia è più affidabile del GKT, potendo esclude le contromisure. Di contro, chi scrive è meno ottimista. Gli errori logici ed i bias rilevati supra restano anche il questo caso. Essi sono trasferiti da un sistema ad un altro. Prima era errato un bicondizionale fra le risposte fisiologiche ed il mentire. Adesso è errato un bicondizionale fra l’attivazione di certe aree celebrali ed il mentire. Anche nelle neuroscienze, almeno in questo caso, abbiamo un condizionale materiale.

Le neuroscienze sono un campo periglioso. Ogni area può essere attivata da una pluralità di processi e funzioni diverse (e.g. Benso F., 2013). E’ la conoscenza a priori dei processi mentali attivati a dare significato alle neuro-immagini e non vice versa. Non esiste un modulo della menzogna incapsulato, corrispondente univocamente ad un area celebrale specifica.

Un bicondizionale, d’altronde, implicherebbe un rigoroso determinismo atto ad escludere sempre la colpevolezza e la responsabilità del soggetto. A quel punto non avrebbe più senso parlare di responsabilità penale (criminale e/o amministrativa).

Non solo. Ogni immagine è mediata da un computer e da un software. Entrambi hanno tutti i limiti: della tecnologia pro tempore; delle conoscenze del programmatore; degli errori di misurazione; etc …[12].

Ancora, l’immagine è nulla di più d’una mappa che non corrisponde al territorio.

Woodruff W. A. (2014) ha rilevato forti limiti nell’impiegare la fMRI come lie-detector. Essi sono: l’assenza di una validità esterna ed ecologica. Tutti gli studi sono stati fatti in laboratorio con soggetti pagati per mentire.

La fMRI è incapace di distinguere fra credenze soggettive (incluse false memorie) e verità oggettive.

Nonostante ciò, l’Ordinamento Italiano ha mostrato una certa apertura alle neuroscienze (Gusmai A., 2017). L’autore riporta come dal 2009 ad oggi, le neuroscienze hanno fatto ingresso in alcune vicende giudiziarie. Questo sarebbe avvenuto sulla base dell’assioma per il quale: “tutte le attività umane – non solo i muoventi corporei, ma anche quelle più complesse come la formazione di giudizi morali e la percezione di emozioni – dipendono da connessioni neurali” (Gusmai A., 2017).

La tecnica neuro-scientifica che sembra aver conquistato la “simpatia” del Tribunale di Cremona è l’a-IAT: “deve subito essere sottolineato, al fine di evitare ogni equivoco, che tali metodologie nulla hanno a che vedere con antiquati tentativi di verificare la <<sincerità>> di un soggetto tramite lie detectors o poligrafi, strumenti che pretenderebbero rifondare la valutazione su grossolani sintomi psico-fisici del periziando … … l’analisi delle risposte non si basa su interpretazioni soggettive … …, ma su analisi algoritmiche computerizzate” (Trib. Cremona, G.U.P, 19/07/2011).

Quindi, passiamo ad analizzare l’a-IAT.

Autobiographical implicit assocetion test a-IAT

Il test a-IAT deriva dall’Implicit Assocetion Test (IAT). Ha la finalità di rilevare la presenza d’una traccia mnestica (di tipo autobiografica) nella memoria di lungo termine (MLT). Il metodo misura ed utilizza i tempi di latenza nel rispondere alle domande. Quest’ultime: includono domande neutre; e, domande relative alla traccia mnestica da verificare.

La presenza della traccia mnestica nella MLT è inferita da un minor tempo di latenza. Di contro, l’assenza è inferita da un maggior tempo di latenza.

Lo strumento può essere impiegato come lie-detector. In quest’ultimo caso, mentire causerebbe un maggior tempo di latenza a causa d’un conflitto intrapsichico e dello sforso cognitivo necessario per superarlo (Merzagora I, Verde A., Barbieri C. e Boiardi A., 2014). Questa spiegazione, però, è influenzata dal paradigma psicodinamico. Un paradigma non scientifico, ricco di costrutti vuoti e caratterizzato da derive semiotiche (Epis, 2011/2015). Questo rende impossibile comprendere la natura dei tempi di latenza e porre a falsificazione la teoria alla base dell’a-IAT[13].

Di contro, i tempi di latenza hanno spiegazione nella struttura del funzionamento mentale e nelle neuroscienze.

Il funzionamento del sistema attentivo-esecutico descritto dalle neuroscienze ci fornisce una chiara esposizione della struttura mentale e della natura dei tempi di latenza.

Maggiori tempi di latenza sono dati: (1) dalla richiesta di maggiori risorse attentive; (2) dall’intervento del Sistema Attentivo Supervisore a là Shallice (1988) e l’uso di funzioni esecutive.

Passare dalla modalità automatica alla modalità cosciente richiede l’uso di maggiori risorse attentive e l’intervento del Sistema Attentivo Supervisore (SAS). La capacità limitata delle risorse attentive causa i tempi di latenza maggiori.

Exempli gratia, un pianista suona un pezzo musicale appreso da tempo (Per Elisa di Beethoven) conversando amabilmente con un amico. Il pezzo musicale è suonato in modo automatico e non richiede: (1) l’impiego di risorse attentive (maggiori rispetto a quelle presenti nel modulo dedicato); (2) l’intervento del SAS. Questo permette di dedicare risorse attentive ad altre attività: parlare con l’amico.

Questa attività (suonare al pianoforte Per Elisa) è parte d’un modulo appreso di terzo tipo che ha un suo processore “dedicatoa là Moscovitch e Umiltà (1990) chiamato condensatore (Benso, 2007). Le risorse attentive necessarie sono fornite da quest’ultimi. Pertanto, non è necessario l’intervento del SAS che può occuparsi di compiti diversi.

Riferire “qualcosa” d’appreso (alias: codificato nella MLT) è equiparabile ad un comportamento automatico: suonare un “pezzo musicale” appreso da tempo.

Di contro, mentire richiede d’uscire dall’automatismo. Bisogna creare una “versione diversa ed alternativa” della Storia. Ciò richiede l’intervento del SAS, delle funzioni esecutive e di maggiori risorse attentive[14].

Quindi, minori tempi di latenza derivano da comportamenti automatici et similia per i quali non occorre l’intervento del SAS. Maggiori tempi di latenza indicano comportamenti coscienti che richiedono maggiori risorse attentive, l’intervento del SAS e delle funzioni esecutive.

Quando un soggetto mente deve costruire una versione alternativa. Questo richiede l’intervento del SAS, di maggiori risorse attentive e diverse funzioni esecutive, quali:

(1) la funzione esecutiva dell’inibizione. Il soggetto deve inibire l’automatismo che lo porta a dare la risposta appresa (alias: conforme alla traccia mnestica). Quest’ultima agisce come un distrattore e/o interferenza, entrando in “competizione” con le “diverse risposte” che il soggetto desidera dare.

(2) Successivamente, il SAS deve attivare la funzione esecutiva dello switch, passando dalla versione storica in MLT alla versione alternativa.

(3) Poi, bisogna mantenere la versione alternativa nella memoria di lavoro (MBT). Ciò richiede la funzione esecutiva dell’update ed il controllare, di volta in volta, ogni interferenza.

(4) Ancora, può essere necessaria la funzione esecutiva della pianificazione, auto-monitoraggio ed auto-controllo.

Questo causa maggiori tempi di latenza nel mentire.

Comunque, salvo la diversa spiegazione data ai tempi di latenza, concordo con due conclusioni presentate da Merzagora I, Verde A., Barbieri C. e Boiardi A. (2014). Quest’ultimi hanno ragione nel: mettere in dubbio la validità del test a-IAT; e, sollevare perplessità verso l’art. 188 c.p.p. (principio della libertà morale).

Una prova sulla poca affidabilità dell’a-IAT è data dall’esperimento di Vershure, Prati, De Houwer, (2009). Lo studio riporta come un gruppo di studenti, ai cui fu insegnato mentire all’a-IAT, riportarono performance fino al 78% nel far passare menzogne per memorie autentiche.

L’a-IAT, infatti, non discrimina fra ricordi reali e falsi ricordi (ricordi apparenti; falsi riconoscimenti).

L’a-IAT, pertanto, è privo della struttura logica del bicondizionale e conserva molti dei limiti comuni a tutti i lie-detectors. Per non essere ripetitivo, presenterò solo alcune osservazioni neuro-scientifiche.

Il conseguente q del condizionale materiale alla base dell’a-IAT può essere causato da un qualsiasi fattore di disturbo (interferenza e/o distrattore) atto a far uscire il soggetto da una modalità esecutiva automatica, richiedendo l’intervento del SAS.

Esso può essere semplicemente un fattore di disturbo ambientale. A ciò si aggiunge che le variazioni nei tempi di latenza sono legate in modo dialogico ricorsivo: alla motivazione; alle emozioni; alle condizioni fisiche.

Pertanto, nulla cambia rispetto a quello che abbiamo detto per gli altri lie-detectors.

Di contro, mentire all’a-IAT è semplice. Basta passare da una modalità cosciente (governata dal SAS) ad una modalità esecutiva automatica, routitudinaria. Qualunque “cosa” può essere appresa e resa automatica con la ripetizione e l’allenamento. L’allenamento serve anche a ricaricare il processore dedicato e le risorse attentive autonome “stanziate” per l’esecuzione del comportamento automatico appreso.

Dato che il SAS e le risorse attentive intervengono solo nel caso in cui le azioni, comportamenti o apprendimenti, automatici o routitudinari, siano insufficienti e/o non disponibili a garantire una prestazione efficiente (Lewis e Todd, 2007; 2007), nessun maggior tempo di latenza è rilevato qualora il soggetto renda la versione alternativa una risposta automatica.

Ancora, le funzioni esecutive, le risorse attentive, possono essere allenate ed aumentate, e.g., con i “doppi compiti non automatizzati”. Se un soggetto fosse “pigro”, invece, può ricorrere all’auto-suggestione, l’auto-ipnosi, l’etero-ipnosi.

Come detto, l’a-IAT (ed ogni altro lie-detector) è incapace di distinguere fra verità oggettiva e soggettiva, fra memorie reali e false , etc… .

Principio di libertà morale (art. 188 c.p.p.) e lie-detectors nella casistica Italiana

I lie-detectors hanno fatto ingresso nel processo Italiano dalla “porta di servizio”.

Conformemente a Gusmai A. (2017) e Merzagora I, Verde A., Barbieri C. e Boiardi A. (2014), l’ingresso è avvenuto attraverso le CTU. Le neuroscienze e neuro-immagini, e.g, sono state usate nelle CTU per vagliare la capacità di intendere e volere.  Exempli gratia, la Corte d’Assise d’Appello di Trieste (sentenza n. 5/2009) ha riconosciuto la parziale incapacità di intendere e di volere ad un algerino che uccise un colombiano poiché lo chiamò: “omosessuale”. La Corte riconobbe che: (1) il soggetto aveva un grave disturbo psichiatrico documentato; e, (2) presentava una “vulnerabilità genetica” verso comportamenti aggressivi qualora provocato dal contesto sociale. Le neuroscienze furono usate per integrare e corroborare la diagnosi psichiatrica descrittiva.

Conformemente a Merzagora I, Verde A., Barbieri C. e Boiardi A. (2014), l’a-IAT fu usato in tre casi:

(1) Il primo caso è del Tribunale di Como, 2011. La CTU utilizzo la fMRI, assieme all’elettroencefalogramma (EEG) e la morfometria basata sul Voxel (VBM), per argomentare il vizio parziale di mente. La a-IAT fu usata per valutare la genuinità dell’amnesia circa i due delitti. Il test escluse la genuinità poiché suggeriva, secondo i consulenti, che nella MLT potevano essere stati codificati (e pertanto essere recuperabili) ricordi relativi ai due omicidi. Sebbene l’a-IAT fu usato come elemento utile d’una diagnosi sulla capacità di intendere e di volere, di fatto, divenne un test di verità su quanto affermato dall’imputata: “non ricordare i due omicidi”. Questo lo rende un caso borderline verso l’art. 188 c.p.p. .

Personalmente non ritengo che l’a-IAT fosse necessario alla CTU. Il fulcro d’ogni diagnosi psichiatrica e psicologica è il colloquio clinico. E’ solo nel colloquio clinico che avviene la diagnosi. I tests sono solo elementi ausiliari ed accidentali. Essi sono utili solo a creare: scenografie pittoresche; setting suggestivi; parcelle elevate; …, non a fornire informazioni. Lo psicologo usa i test, come lo stregone usa la sfera di cristallo, i tarocchi ed il cappello a punta, per suggestionare il pubblico! I loro risultati, infatti, non hanno alcun significato. Tutt’al più, un rozzo screening. Solo nel colloquio clinico, i risultati dei tests possono acquisire significati. La diagnosi avviene nel colloquio, attraverso il colloquio, non coi tests.

(2) Il secondo caso è del Tribunale di Cremona, GUP, 19/07/2011. Questo caso è interessante in quanto l’IAT ed il TARA furono usate come lie-detectors per valutare l’attendibilità del racconto della persona offesa – testimone.

Il caso riguarda un commercialista che avrebbe posto sgradire attenzioni sessuali su una minorenne.

L’indagine sulla memoria della persona offesa (test I.A.T. e T.A.R.A.) servì per “verificare” se era presente traccia mnestica nella MLT conforme alla testimonianza data. Nel caso di specie, il CTU concluse positivamente.

Di contro, il giudice poteva risolvere il caso “semplicemente” senza ricorrere al test! La parte offesa può essere testimone nel processo penale. La Cassazione riconosce che il giudice può formare il suo prudente convincimento sulla sola testimonianza della parte offesa. Questo qualora siano assenti elementi contrari atti a screditarla.

Pertanto, se la testimonianza è ritenuta attendibile dal giudice: non serve alcun test! Di contro, se esistono elementi contrari atti a togliere credibilità alla testimonianza, quegli stessi elementi contrari sono atti a togliere credibilità al risultato del test!

Quindi, a cosa serve al giudice il test?

Ritagliarsi un po’ di visibilità? Passare per innovativo-progressista? Creare precedenti per agevolarsi la carriera? Deresponsabilizzarsi, delegando ad un test la decisione del caso?

Non vorrei che anche i giudici, come molti psicologi (non degni della professione) finissero per diventare “dipendenti dai tests” delegando ad essi ogni decisione! Non lo dico io: lo dice il test!

Ancora peggio, non vorrei che i test (anch’essi basati al massimo su un condizionale materiale) fossero usati per creare prove inesistenti (che sono incapaci di dare)!

Il giudice condannò l’imputato poiché ritenne vera la testimonianza, non per i motivi detti supra, ma per essere stata confermata dall’a-IAT!

Il giudice affermò che l’a-IAT non ha nulla a che vedere con gli imprecisi lie-detectors!

Personalmente avrei ritenuto valida una “motivazione classica” non fondata sull’a-IAT. Di contro, ritengo viziata una decisione fondata su un test (a-IAT) per i motivi ut supra.

Il terzo caso riguarda un omicidio. Durante una festa di famiglia, una persona sparò al cugino che non vedeva da 20 anni. Il fatto avvenne in stato alterato di coscienza. Un particolare sorriso, fatto dal cugino al figlio dell’imputato, attivò il comportamento. Questo avvenne poiché il sorriso fu identico a quello che la vittima fece 20 anni prima quando abusò sessualmente l’inputato e suo fratellino, all’epoca rispettivamente di 11 e 9 anni.

Anche questo caso era risolvibile senza a-IAT. Abbiamo: (1) una amnesia causata da un trauma; (2) la creazione d’un area dissociata, ovvero a là Ericsson: la creazione di memorie, apprendimenti e comportamenti, stato dipendenti; (3) l’attivazione delle memorie, apprendimenti e comportamenti, stato dipendenti nel rivedere lo stesso sorriso.

L’a-IAT fu usata per: convalidare l’autenticità del ricordo dell’abuso; della provocazione; della non frequentazione con la vittima nel corso degli anni; per verificare se abbia agito d’impulso. Il risultato positivo fece concludere i CTU per un’infermità di mente temporanea (rottura psicotica transitoria) atta a giustificare l’incapacità totale di intendere e volere al momento del fatto.

Lo stesso risultato poteva essere raggiunto senza ricorrere all’a-IAT. Bastava una CTU “classica”, fondata sul colloquio clinico e sulla conoscenza della letteratura, eventualmente integrata dalle informazioni acquisibili dai testimoni.

Anche questo caso è un caso borderline. Sebbene l’a-IAT fu usata dal CTU come elemento per valutare la capacità di intendere e volere, di fatto, fu un test sulla verità di quanto affermato dall’imputato.

Secondo Gusmai A. (2017), i giudici tendono ad “appropriarsi” della scienza per farla diventare fonte di legittimazione delle decisioni giuridiche. Problema è che la Scientia è composta da set di teorie mutabili e mutevoli. Per ogni studio che dimostra A; c’è sono altri che dimostrano B, C, D, E, … Z. Tutte co-esistono in un limbo nel quale, di volta in volta, in base all’interesse del caso se ne “pesca” una piuttosto che un’altra.

Per tali motivi, senza scomodare Khun, si è ritenuto che i “fatti scientifici” siano nulla di più d’un accordo interno ad una Comunità di Discorso a là Lyotard (1983). L’accordo che emerge, non rispecchia la Veritas, ma i Rapporti di Forza e di Potere interni alla stessa Comunità di Discorso. Un fatto assai evidente nelle Scienze Psicologiche.

Applicando ciò alla realtà processuale, si traduce nella vittoria (non di chi ha ragione) ma di chi paga i rappresentati più influenti della Comunità di Discorso. Il giudice (qualora privo d’una sua propria capacità critica logico-epistemologica), trovandosi inevitabilmente difronte ad opposte consulenze: o, “sposa” fideisticamente e/o acriticamente e/o opportunisticamente la tesi del CTU (semplificandosi il lavoro di motivazione)[15]; oppure, inevitabilmente, finisce per accogliere la tesi dell’esperto più “rinomato” (alias: con “maggior potere” all’interno della Comunità di Discorso). Ciò deriva dal fatto che l’uomo tende (erroneamente) a ritenere l’Autoritàfonte attendibile” di informazioni! L’Autorità è vista “degna di fiducia”, esperta in thema. Ciò porta a non mettere in dubbio, né a falsificare o accertare, quanto riferito da essa (Zappalà S., 2007). Di contro, l’informazione d’una fonte autorevole, non garantisce la sua attendibilità. Anzi, l’ipse dixit segue tutti i bias ed errori del caso.

E’ espressione d’una prospettiva situata; è tentativo di “portare acqua al proprio mulino” (alias: al proprio paradigma a là Khun; e/o alle proprie teorie versus quelle della “concorrenza”). E’ cercare di fare gli interessi del proprio cliente e/o quelli d’una parte a danno dell’altra. Non mancano poi i “giochi di potere” (incluse le mere simpatie ed antipatie) interni alla Comunità di Discorso.

Come insegna Foucault, Potere e Conoscenza sono “due facce della stessa medaglia”. Questa commissione è tanto maggiore, quanto più la fonte è autorevole.

Il giudice, perciò, non deve seguire nessuno se non la legge. Al fine di garantire la giustizia, il giudice deve: porre sullo stesso piano tutte le tesi; vagliarle (testarle e falsificarle) alla luce dei fatti concreti assunti in quel giudizio attraverso il contradittorio; esaminarle con la sua capacità critica logico-epistemologica; approfondire lui stesso l’argomento attraverso la sua capacità di ragionamento interdisciplinare; declinare la scientia nel giudizio consapevole di quanto detto supra;  etc … etc… ; per arrivare a fondare il suo prudente apprezzamento su tale riflessione ragionata e non su un ipse dixit d’uno “a caso”!

Il giudice deve accertare la verità dei fatti. In caso di dubbio: (1) nel processo penale, l’imputato è innocente; (2) nel processo civile, soccombe la parte che non ha assolto all’onere della prova (impostole dalla legge). Il giudice non è un giocatore d’azzardo: non punta ad un tavolo da Casinò in base alle probabilità!

Questo rischio, indirettamente, è stato riconosciuto anche da Jones O. D. et al. (2013). L’autore ha evidenziato come i giudici devono sviluppare la capacità di distinguere fra le inferenze corrette e scorrette che possono essere fatte utilizzando la scientia (in particolare, l’autore si riferiva alle neuroscienze). Questo perchè: “it is easier to misunderstand or misapplay neuroscience data then it is to understand and apply them correctly“.

Nonostante i lie-detectors non possono essere utilizzati nel nostro ordinamento in quanto pregiudicano la libertà morale dell’imputato ex art. 188 c.p.p., come visto sembrano esserci entrati dalla “porta di servizio”.

L’art. 188 c.p.p dice: “non possono essere utilizzati, neppure con il consenso della persona interessata, metodi o tecniche idonei a influire sulla libertà di autodeterminazione“. Pertanto tutti i lie-detectors et similia (incluso l’a-IAT) dovrebbero essere inammissibili in quanto privano l’imputato della facoltà di non rispondere e/o non auto-accusarsi. Passata l’idea della loro ammissibilità[16], il mero rifiuto a sottoporsi al test sarebbe visto come “ammissione di colpevolezza”.

Conclusione

Sebbene l’Homo Sapiens Sapiens, sin dai tempi antichi ha cercato di trovare un sistema per discriminare fra la verità e la menzogna (Segrave K. 2005), non sembra esserci riuscito neppure con la tecnologia.

I risultati, infatti, sono contradittori, con margini di errore elevati. Ciò sembra aver portato la letteratura a dividersi in due fazioni: una fortemente scettica verso i lie-detectors (Nye T., 1988; Carrol D., 1988; Lykken D. T. 1988; etc…); l’altra sostenitrice dei lie detectors. Quest’ultima, però, lo fa più per la loro “utilità”, che per la “robustezza” dei data sulla validità interna ed esterna (Barland G. H., 1988; OTA, 1993; etc…).

Mentre i lie-detectors sono ampiamente utilizzati in USA, come abbiamo visto essi non trovano impiego all’interno di alcuni Ordinamenti Europei quali quello Italiano.

Nonostante ciò, subdolamente, l’a-IAT ha fatto ingresso dalla “porta di servizio” creando alcuni casi borderline.

Al momento, comunque, è precluso il loro utilizzo sia durante la fase delle investigazioni e sia durante il giudizio (dibattimento).

Questa decisione poggia su due motivi. Il primo è prettamente giuridico e riguarda il principio della libertà morale dell’imputato (art. 188 c.p.p.). Il secondo è “scientifico” e ricade sull’alto livello di inaccuratezza degli strumenti.

Nonostante ciò, il Tribunale di Cremona ha messo in dubbio questo secondo motivo, affermando che l’a-IAT sia molto più sicuro dei poligraph e PSE.

Molto probabilmente l’a-IAT darà vita ad un dibattitto giuridico in thema.

Alla fine possiamo concludere con le parole di Leonard Saxe: “a lie-detector does work as long as the subject believes it works. A good examiner scares the crap out of you. It’s theatre“.

Ma Verità e Giustizia non dovrebbero essere ridotte ad una rappresentazione teatrale!

 

Non le vidi, non so, non ho udito parlare da altri,

non saprei indicare, non potrei avere un compenso

per avere informato, non assomiglio ad un vigoroso ladro di buoi.

Non è opera mia … altre cose ho a cuore:

… …

affermo di non essere colpevole io …”.

(Disse Hermes ad Apollo interrogato sul furto delle vacche, Inno Omerico IV. A Hermes)

[1] in quanto ritenuta una life-skill trasversale, essenziale e necessaria, per la sopravvivenza della specie.

[2] inteso come: abilità codificata nel patrimonio genetico della specie atta ad emergere senza bisogno d’alcun apprendimento.

[3] indipendentemente dalla professione ed esperienza.

[4] con nesso causativo immediato con rapporto asimmetrico ed unidirezionale.

[5] Matteo: “Guardatevi dai falsi profeti; essi vengono a voi travestiti da pecore, ma dentro sono lupi rapaci. Dai loro frutti li conoscerete … ogni albero buono dà frutti buoni … ogni albero cattivo dà frutti cattivi … … Dai loro frutti, dunque, li riconoscere“, 7 (15 – 21).

[6] Il bicondizionale è l’unione di due condizionali materiali legati da congiunzione: (se p allora q) e (se q allora p).

[7] abilità trasversale ad ogni Sapere.

[8] ovvero: “in social science, everything is somewhat correlated with everything” (Meehl, 1990a; 1990b) così che: il “cosa” correlare è una scelta “politica” del soggetto. Una scelta che, una volta fatta, viene corroborata dalla statistica.

[9] e delle diverse forme che assume. Essa spinge sempre a favore della conferma dell’ipotesi, arrivando (ove assente) a creare la stessa realtà conformemente alla credenza.

[10] Exempli gratia: se un soggetto è condannato sui risultati d’un lie-detector (anche qualora errati e seppur innocente), tale condanna sarà usata come prova del successo del lie-detector!

[11] e.g., agenti segreti che impiegano particolari tecniche di rilassamento.

[12] Si pensi a come sono manipolabili i software. Un esempio recente è dato dalle Aziende Automobilistiche che (grazie a “ritocchi” fatti sul software) facevano risultare emissioni inquinanti inferiori alle reali. La tecnologia non garantisce mai maggiore onestà e trasparenza, ma semplicemente rende l’inganno più sofisticato, nascosto e difficile da riconoscere. Nel caso delle Aziende Automobilistiche le prove fornite dai computer erano in apparenza “valide”. La contraffazione non poteva essere rilevata da esse. L’inganno era su un “piano” diverso: nel software.

[13] Conflitto intrapsichico è un vuoto contenitore. Dice tutto e niente. E’ un principio esplicativo a là Bateson. E’ una moderna forma di nominalismo. E’ l’insieme vuoto (privo d’elementi) sottoinsieme d’ogni possibile insieme in Psicologia (teoria degli insiemi), usato dagli psicologi come gli illusionisti usano l’abracadabra!

[14] Il SAS gestire le funzioni esecutive e le risorse attentive.

[15] tesi comunque influenzata dal CTP più autorevole, qualora il CTU sia di minor fama e/o abbia minor “peso” d’uno dei CTP all’interno della Comunità di Discorso.

[16] anche come strumenti per verificare l’esistenza d’una traccia mnestica.

A Critical Study on How the Psychopathological Construct of Antisocial Personality and Psychopathy Has Imploded. The Implosion of the Construct

ABSTRACT

This article focuses on the construct of antisocial personality and behaviors. It is proved (with: empirical studies; and, logic arguments) how this construct imploded.

Lilienfeld (1994) gave an example of this. The author, in fact, discovered a positive correlation between persons that were diagnosed psychopaths and/or antisocial and the frequency of altruistic and pro-social behaviours. Instead of inferring the incoherence of the paradigm, he elaborated an illogical auxiliary assumption to save it. He suggested to use, like diagnostic criterion for the antisocial behaviour, the pro-social behavior!!
In other words, this psychopathological construct arrived to have an incoherent logical structure: P AND NOT P. Thus, this construct is not possible to be either corroborated or refuted. It does not comply with the scientific reasoning.

This is a typical example of the incoherent and illogical reasoning that dominates inside psychopathological constructs.

A New Empirical Theory, which is able to explain those phenomena, will be presented in a next article. At the present tence, you could read it in Epis, De Nova Superstitione.

You can get a copy in PDF (with bibliography and index) at this link: A Critical Study on How the Psychopathological Construct of Antisocial Personality and Psychopathy Has Imploded – The Implosion of the Construct – Article

Rationale – Background

Introduction

The Paradigm of Antisocial Personality and Behaviour has always been a very weak and misused construct since the beginning. It is a good example of how the psychopathological constructs became a “modern scientific” form / manifestation of the Human Superstition. Ordronaux (1873) was the first author, who became aware about this. Indeed, he stated that this concept is “… an attempt to return to belief in demon possession of the Middle Ages and a revision to superstition”[1]. From that time, the number of the researchers, who criticized this construct and “how” it is used, increased.

Exempli gratia, Kinberg (1946) said that the concept of psychopath “should be abrogated as theoretically unsatisfactory, practically misleading and destructive to scientific thinking”. Karpman (1948) stated that it is “a myth … a nonexistent entity”.  Vaillant regarded this construct to be a misleading stereotype.

Blackburn (1988) affirmed: “it must be concluded that the current concept of psychopathic or antisocial personality remains «a mythical entity» …”[2].

Calvaldino (1998) suggested that this construct is nothing more than “a moralism masquerading as medical science”. He updated both the Blackburn’s critics and the Ordronaux’s critics. The former, indeed, admitted that: “such a concept is little more than a moral judgment masquerading as clinical diagnosis”. The latter argued[3] that: “the only disease to which the moral nature is subject is sin”.

Toch (1998) observed that the term was a form of negative counter-transference.

Shadish et al. (1999) underlined how the process of validation of the psychopathological construct has never been completed.

Cooke, Michie and Hat (2006), reported how this construct is quite controversial in the academic literature. In the same year, the present writer presented and illustrated “how” the construct: imploded on itself; was lacking in any scientific criteria; and, could be explained with a more Empirical Theory that was able to abandon these modern forms of Superstitions.

Although all these critics were well proved and based, they were neglected and refuted by the establishment. The latter, according to the Kuhn’s theory (1962; 1970), was committed to defend the Paradigm. The critical views were: denied; ridiculed; not taught. The researchers, who dared to show interest in them, were actively: dissuaded; discouraged; isolated. Their studies and works were hindered. They were also attacked with argumenta ad personam. The latter is a strategy that is largely used by psychologists to defend their inconsistent constructs (Epis, 2011/2015).

So, the establishment, instead of considering those critics and improving its constructs, has weakened and weakened them, meantime.

For instance, Hill, Murray and Thorley (1986) warned their colleagues that: “… psychopathic personality is an intriguing tale of confusion and inconsistency”.

Blackburn (1988) made the same critics with “softer” and “more indirect” words. He advised clearly that the construct had a very weak point. According to him, “the taxonomic error of confounding different universes of discourse” was present in the construct. This error leaded to create “a diagnostic category that embraces a variety of deviant personalities. Such a category is not a meaningful focus for theory and research, nor can it facilitate clinical communication and prediction”.

Nevertheless, as I told supra (above), the establishment refused to consider all those warnings. Instead of working for decreasing the heterogeneity of the construct, they increased it as much as they could!! At the end, the construct became so heterogeneous to include two opposite and contradictory types in the same set: the criminal psychopath; and, the non-criminal psychopath.

In other words, several psychologists put into the same set: serial killers (such as Jack the Ripper) committed to criminal activities; and, people (such as Mather Teresa of Calcutta) who, on the contrary, were committed to pro-social behaviours!! Some criminologists attempted to reduce all the violations of the Criminal Law like a manifestation of psychopathy!!

Please, do not think that they were joking. I have also thought it (in first instance), but they were not joking at all. They were strongly “devoted” and convinced in what they were saying. All their career and social prestige came from that!!

So, the present writer had to recognize the self-evident implosion of the psychopathological construct for the reasons that you can read infra (below).

 

Antisocial Personality’s Construct: Birth, Development and Implosion

Before explaining the reasons of the implosion of the construct, a brief résumé (about the “lifespan” of the antisocial personality’s paradigm) is given.  It will be very useful to understand: both, the biases that work in the creation and in the confirmation of the psychopathological paradigms; and, how superstitions can even appear “scientific beliefs”, once they are masked to psychopathological constructs!!

 

Birth and Development

The first label, which described the antisocial personality and behaviours, was: “manie sans delire” (Pinel, 1801). Then, this construct was called: “moral derangement” or “derangement in the moral faculties” (Rush, 1812); “moral insanity” (Pritchard, 1835). At the end, the label has become: antisocial personality disorder (e.g., DSM IV – R); psychopathy (e.g., Lange-Eichbaum, 1931; Henderson, 1939; English Mental Health Act, 1983; Cleckley, 1976; Hare, 1980); sociopathic personality disorder or asocial personality disorder (e.g., Gelder M., Gath D. and Mayou R., 1983); dissocial personality disorder (e.g., ICD-1O[4], F 60.2); and so on.

If you want, you can invent another name!! We need it!!

This construct is a good example of how the psychopathological discourse is completely dominated by: plenty of biases; a lot of fallacies; trickeries such as that one of nominalism; and, an absent epistemological awareness and reflection (Epis, 2011/2015).

The first label, which described the antisocial personality and behaviours, was: “manie sans delire” (Pinel, 1801). Pinel wanted to explain the behaviour of some people who were: violent and social dangerous; committed to criminal activities; cruel and callous; inclined to kill the others. As he could not explain this phenomenum, he used the ancient trickery of the nominalism. He gave a name to something that he was not able to understand (at all). So, he created the illusion to have explained and understood something that he did not!! Bateson (1972) called this trickery: explanatory principle. Actually, psychopathology (… most of the times …) is nothing more and nothing less than: an explanatory principle; and/or, the ancient trickery of nominalism.

This point is pretty important to understand: both, one of the intellectual dishonesties (a là Lakantos) that belong to the clinical psychologists; and, how Psychopathology became a new set for gathering different forms of the modern Superstitions.

So …, I will give you a brief example, … before proceeding with our discourse.

Do you know Treponema Pallidum? It is a micro-organism that causes an infection to the Central Nervous System. Well …, it happened that the human beings (before discovering this microbe) considered “mental ill” the people who were suffering from this infection!! This micro-organism (alone) was the responsible of the 15% of all the psychiatric population. This is how, superstation works. A physical concrete problem (the real cause) is neglected and transferred to an inexistence dimension: a “thought’s illness” (a false and fabricated cause)[5]!?!? There is not any difference from believing in psychopathology to believing in demons’ possession. The psychosocial mechanisms, which underlie and lead those phenomena, are exactly the same. They are used to explain whatever human beings are not able to explain, using the trickery of the nominalism!! So, nowadays, instead of calling a Shaman and/or a Priest, people call a more “modern and fashionable” psychologist!!!! But, there is no change, except (… maybe …) that Shamans and Priests were better than Psychologists!!

Oh God …, save us from psychologists!

So …, now you know “what” psychopathology is and “how” psychopathology works and explains the phenomena. Therefore, we can proceed in our speech.

Although Pinel used psychopathology, like an explanatory principle, for explaining the violent and cruel behaviour, soon this construct moved away from the objective facts (the criminal activities; the social dangerousness; and the cruel behaviours) to landing at “ghostly and eerie traits” that allows any kind of abuse, misuse and interpretation.

Indeed, this construct was re-baptized: moral derangement (Rush, 1812); moral insanity (Pritchard, 1835); … and it ended to include whoever acted in a different manner from the others. It was immediately declined to wide abuses and misuses.

So, as you remember, Ordronaux (1873) had to report how it was an attempt to mask superstitious ideas for science.

According to Prichard (1835), moral insanity (at the end; and, behind the usual doctrinal and technical words and jargon) was just to perform: “the common actions of life in a different way from that usually practised” by the majority. So …, singular, and/or eccentric, and/or wayward persons were all considered moral insane. Therefore, moral insanity showed clearly another aspect of the true nature of psychopathology: to be an instrument of homologation and social control a là Foucault. To be an instrument to force everyone: to be an uncritical lemming; to follow the flock like a sheep. If you do not follow uncritically the flock, … you are “insane”!!

It is exactly how it happened in the Past: the same substance with different forms. People, who do not believe in the superstitions/beliefs of the Majority, nowadays are accused to be mentally insane, whereas, in the Past, they were accused to be heretics, etc…!!

Do you remember Socrates? Actually, he is a very good example.

Oleson (1998) defines Socrates like an eccentric Sophist. Although he presented (in a very peaceful manner) original ideas, Socrates was considered “the most dangerous man in Athens” (Lindsay, 1918). He was accused of: corrupting the young people of Athens; introducing new Gods; etc… . At the end, he was executed for those false “irrelevant and untrue rumours”. If you think that he was an isolated case, you do not have any idea, how much you are wrong[6]!!

Indeed, most of the peaceful men of this World, who have dared to present a mere original and/or different idea from those that were wanted and supported by establishment, have been always persecuted. “Scientists and statesmen alike have been persecuted by established authority. Mahatma Gandhi, Martin Luther King, Jr., and Nelson Mandela …” as they simply stood “against the powers of established orthodoxy when they disagreed with the existing order” (Eysenck, 1995)[7].

Oleson (1998) supported the idea of Eysenck (1995) using the studies of Ellis (1927) who argued: “that society sought to imprison its great men at every opportunity”.

So…, this is how the majority of times, these constructs are used. Rarely, are they used against serial killers such as Jack the Ripper!! The latters are not as common as media attempt to make people believe!! Actually, they are pretty unusual. Those few cases are used by Power to create social panic. This is a good mean to: both, make people believe in the “rightness” of those superstitions; and, make people renounce their rights and civil liberties to “get” security (a là Bauman)!?!?

Although Milton (1981) stated that the notion of moral insanity, nowadays, has few in common with the construct of antisocial personality and psychopathy, he is right only, and only if, we compare moral insanity with the definitions that were given by: the DSM-IV-R; and, some National Acts such as the English Mental Health Acts 1983. On the contrary, he is hugely wrong if we compare it with the everyday practice that has been done by psychologists and clinicians.

Indeed, only the formers require the presence of objective criminal activities. The latters, on the contrary, have developed (in the practice; and, in the literature) a construct that is used wider and wider than Prichard’s moral insanity.

Whereas moral insanity was (… at least …) connected with an objective behaviour (to act in a different manner from majority), the construct of antisocial personality and psychopathy has lost any link with: both, objective facts; and, criminal behaviours.

Psychologists and clinicians reduced it to be a mere set of personality traits. As personality traits are also very arbitrary and weak creations, the construct came back to be an incongruent, contradictory, unfalsifiable theory. In practice, personality traits allow any kind of interpretation and misinterpretation without any limit. So …, the construct bended to any sort of abuse and misuse. It was not a case, indeed, that two opposite and incompatible types were originated by the same construct: the criminal psychopaths; and, the non-criminal psychopaths.

Whereas the formers are committed to cruel and criminal activities; the latters are normal, pro-social persons, who are well integrated in the society. Just to give an example, Mather Teresa of Calcutta was considered a non-criminal psychopath by several clinicians.

This leaded to a construct that was unable to satisfy any principle of demarcation[8].

Indeed, it was unable to satisfy both the test of validity and the principle of falsification. Any kind of behaviour (both antisocial; and pro-social) was used to confirm the diagnoses, once they were done!! So, they could not be verified and checked with any contra-factual evidence. In other words, once an arbitrary diagnosis is done by a psychologist, any behaviour is retrospectively interpreted to be a confirmation of the diagnosis itself!!

This was one of the reasons that made some researchers take critical positions on this construct, as I wrote in the introduction.

As Kanner said, at the end of the circus and pseudo-scientific jargons (which are used by psychologists to making their superstitions look like science): “a psychopath is somebody you don’t like”.

Please, note: I do not deny the existence of crimes and criminals. I believe: they must be punished. But, I fight the attempt to re-introduce a new “hunting to the witches” a là Maleus Maleficarum[9].

An evidence of how psychologists misuse this construct is given by the necessity, which most Parliaments had, to limit with law its application[10]. Nevertheless, psychologists did not care about law[11]!! So, they extended widely and widely the application of their construct. Therefore, more and more persons committed to pro-social behaviours were considered psychopaths.

This leaded to the creation of a very contradictory construct.  Some authors split the paradigm in two different constructs: the antisocial personality (which kept a connection with an objective criminal activity); and, the psychopathy (which was connected only with personality traits).

Other authors kept a unique paradigm. So, antisocial personality and psychopathy became two different degree of the same “mental illness”.

The increment of the number of the diagnostic scales increased the contradictions among the diagnoses. Most of the time, the diagnoses are made only on “sensations and feelings”, which clinicians have at the moment without using any scale.  This phenomenon was proved during the hearings of the English Mental Health Tribunal. During the contra-examination, it was proved that the diagnoses were done without considering any diagnostic scale (e.g., DSM-IV-R; PCL-R). They were made only using a vague and unclear “clinical experience”. The latter is an “elegant word”, a jargon, which clinicians use, to say that they decided without fallowing any criterion, but their feelings as they had in that moment!!!!

Most of the times, the scales are used only ex post. Before, clinicians decide if somebody is psychopath or not. Then, clinicians create, with a retrospective interpretation (a là Weick), a connection between the factual elements and the theoretical items of the construct, forcing the comparison and assessment.

Epis (2011/2015) used this construct to prove how the functional fixation, the absence of any epistemological awareness and reflection, the confirmation bias, and other fallacies, work within the psychopathological constructs.

Implosion

A very interesting example, of how the paradigm imploded, is given by Lilienfeld (1994). This is just an example. But, endless other examples can be given.

Lilienfeld (1994) arrived to formulate and to support a theory with an incoherent logical structureP AND NOT P.

The author discovered a positive correlation between persons that were diagnosed psychopaths and/or antisocial with the existing scales and the frequency of altruistic and pro-social behaviours.

Instead of inferring incoherence, and/or a contradiction, inside the Paradigm, he elaborated a “wonderful” auxiliary assumption to save it.

He concluded that “the assessment of psychopathy might need to incorporate behaviors that are heroic or altruistic (e.g. helping individual … )” as in their absence a “substantial subset of psychopaths (who) perform frequent pro social behaviors” could not be detected and they may result “false-negative”.

In other words, he suggested like diagnostic criterion for the antisocial behaviour, the pro-social behaviour!! He made an incoherent and illogical reasoning that can be synthetized with the logical model: P AND NOT P.

This is a documented case, which is a good example of how psychologists: both, think most of the times in their everyday activities; and, develop their constructs!!

Although the strong establishment’s blind effort to save this inconsistent Paradigm, the Paradigm imploded.

 

[1] This quotation has also been done by McCord and McCord (1964).

[2] Blackburn’s critics were caused mainly by the heterogeneity of the construct of psychopathy.  Indeed, the latter includes a large amount of different types!

[3] Against the moral insanity, which was the antisocial personality’s name, that was used at his time.

[4] The aim of the International Classification Diseases (ICD) is to promote an international uniformity in the classification of the ailments. Its origin was in the work of Jacques Bertillon, who produced the Bertillon Classification of Causes of Death at the International Statistical Institute in Chicago. The latter became the Manual of International Statistical Classification of Diseases, Injuries and Causes of Death (ICD). In the 1948, the World Health Organization (WHO / OMS) assumed the responsibility for revising the ICD every 10 years.

[5] This happens also when the real cause is social.

[6] Other very famous similar cases are: Giordano Bruno; Thomas More; etc… .

[7] “Research funds are suddenly cut off, even though promised. Irrelevant and untrue rumours are spread to impugn the offender. He may lose his job, or at least fail to be promoted. He may be barred from the library and other facilities; privileges of all kinds may be withdrawn. In extreme cases, he may be suffering bodily attacks, his family may be threatened, bombs may be planted under his car, he may be burnt at the stake – it is difficult to list all the sanctions orthodoxy can muster to assert its right to be regarded as guardian of truth” (Eysenck, 1995).

[8] The problem of demarcation focuses on the method of scientific investigation. In particular, it refers to the criterion that is used to mark the boundary between what science is and what science is not. Exempli gratia, this criterion was: the induction for the Empiricism; the test of validity per the Logical Positivism; and the principle of falsification for Popper.

[9] The Malleus Maleficarum was the book, which was published by two Dominican Monks (Kraemer and Sprenger) in 1487 for “diagnosing” the “witches”. It was the “precursor” of DSM!!

[10] Some Nations (such as England) request an objective criminal activity. Other Nations (such as Scotland) deny the existence of this “mental illness”.

[11] There are plenty of examples that support this.

Morality and Crime

ABSTRACT

Nowadays, Wikstrom’s Action Theory of Crime Causation is a good criminological construct for the understanding of criminal behaviours. Wikstrom P. O. et al. (2012) gave good empirical evidences to the theory.

This paper offers a flashback of what the present writer wrote in 2005/2006 about: the “blooming” Situational Action Theory of Crime Causation presented by Wikstrom (2004; 2006a; 2006b; 2006c); and the relationship between Crime and Morality. The Paper repots the writing done in 2005/2006.

Writer’s ideas and beliefs could be changed meanwhile.

“Moral sense shape human behaviour and the judgements people make of the behaviour of others”

James Q. Wilson, The Moral Sense

Introduction

This paper investigates the role of morality in crime’s explanation.

First of all, morality is considered by different criminological theories an important factor in the crime explanation. Then, the “blooming” Situational Action Theory of Crime Causation presented by Wikstrom (2004; 2006a; 2006b; 2006c) seems to be a promising theory. Indeed, despite of other theories, Wikstrom defines a clear mechanism (Bunge, 1999) able to explain how moral norms and moral judgements take part in criminal behaviours’ development or avoidance.

Although the present writer considers Situational Action Theory of Crime Causation a good description on how morality may explain criminal behaviours, he suggests that morality and moral norms could be defined more empirically.

The present writer advices to define morality (customs; moral norms) like social norms. This definition allows: on one side, to overcome most of the critics that could be done by post-modernistic approaches; and, on the other side, to clarify those social and psychosocial mechanisms which make people “comply or not comply” with those norms. Further, the dialogic recursive relationship (between social and individual dimensions) can be improved using the research findings of the social psychology.

Thus, the present writer, at the end, agrees with Dewey (1992): “For practical proposes morals mean customs”.

Theories of Crime and Morality

According to Hirschi (1971), most of the existing criminological theories have considered morality in their theoretical assumptions.

In answering to the Hobbesian’s question: “why do men obey the rules of society?”, Strain, Control, and Cultural Deviance Theories have connected human behaviors with moral norms.

Whereas the Control Theory assumes human beings to be amoral animals, the Strait Theory postulates human beings to be moral animals.

Strait Theory

According to the Strait Theory, people desire to reach some “moral” goals. For doing this, they wish to use the “moral” means indicated by society. The crime is a consequence of “adversative” and “unfortunate” circumstances that do not allow people satisfy their legitimate desires (social goals), using the legal (moral) means (Burke, 2005).

Control Theory

The Control Theory assumes human beings to be amoral. Hence, people are naturally inclined to commit criminal behaviours unless they are educated and forced to avoid criminal conducts by a strong social control (Burke, 2005). The Social Control Theory disagrees entirely with Peters’ view (1958). Indeed, whereas Peters argues man to be “a rule-following animal”[1], the former postulates human beings not to be rule-following animals as their behaviours are determined mainly by selfish desires.

Cultural Deviance Theory

The Cultural Deviance Theory challenged the Control Theory’s assumptions. According to Cultural Deviance Theory, human beings are unable of perform “pure deviant behaviours” as they can merely follow some social rules (Peters, 1958). Behaviours could be: both, deviant inside some cultural or social contexts and /or groups; and, conventional inside other cultural or social contexts and/or groups. In other words, any behaviour (deviant or conventional) is always expression of some social norms. This is proved by the research findings of social psychology[2]. Any behaviour is always: conventional inside a social group; and deviant inside another. What is considered conventional or deviant is just a matter of Power. It is part of the “fighting for Significance and Power” among the different social groups and people, which determinates the dominant and subordinate groups[3]. Nevertheless, Hirschi (1971) rejects both the above mentioned theories. He stressed, inside the Control Theory’s theoretical background, his Bond Theory.

The Bond Theory

According to Hirschi (1971), the Control Theories “embrace two highly complex concepts, the bond of the individual to society”.

Hirschi (1971) argues that: although the control theories have attempted to explain “the elements of the bond to conventional society”, they failed to give a fulfilled explanation of how “each of these elements is related to delinquent behaviour”. Hirschi (1971) attempts to resolve this lack of explanation. According to Hirschi (1971), the social bond theory considers four elements “related to delinquent behaviour”: attachment; commitment; involvement; belief.

The Bond Theory, like the Control Theory, assumes human beings born amoral. Hence, they have “to learn” to conform to social norms.

The weaknesses of Hirschi’s theory (1971) are the following. His theory implodes. This happens when the criminal behaviours are made by people who have developed: strong social bonds; and a good internalization of moral norms. Indeed, also these people can commit criminal behaviours (Taft, 1956). This is because Hirschi (like Control Theory) makes a huge mistake in the assumptions. People are not born amoral, but THEY are BORN FREE and GOOD!!!! By Nature, people tend to people and empathic behaviours. There is trickery behind ideas that affirm “the people’s need” to be “conformed” to social norms! These statements and beliefs hide a “dark side”! They could be polite fashionable manners to support “blind obedience” to any arbitrary Power. Social norms are always created by Power. Social norms are manifestations of Power. Social norms follow and defend the interests of Power.

Thus, also good people with good social bonds can act criminal behaviours, exempli gratia, against a Power that could be more “criminal” than those people are.

At the end, Hirschi’s theory (1971) is not a good construct. The assumptions are wrong; the evidences do not support the theory but present plenty of contrary facts; important social mechanisms (involved in criminal explanation) are not considered.

Reintegrative Shaming Theory

Another theory that deals with morality is the Reintegrative Shaming Theory of Braithwaite (1989).

Braithwaite (1989) agues the relation between criminal law and morality: “… criminal law is a powerfully dominant majoritarian morality compared with the minority subculture …”.

Her theory is an attempt to gather together most of the existing criminological theories (Labelling Theory; Sub-cultural Theory; Control Theory; Opportunity Theory; Learning Theory) around a simple key concept: shaming.

According to Braithwaite (1989), shaming can be used in two different ways: like stigmatisation; and like reintegrative shaming. The former increases the future criminal activities of the offenders, pushing them inside deviant sub-cultural groups; the later decreases the future criminal activities of the offenders, attempting to reintegrate them inside the society (dominant group).

Whereas the theory of reintegrative shaming assumes a relation between criminal law and moral norms, it lacks to explain those mechanisms that make an individual “break moral rules defined as crime in law” (Wikstrom, 2006a) the first time.

The whole theory focuses on the social reaction that follows at the “initial deviance”, and how the two different social reactions (stigmatisation and reintegrative shaming) affect the future criminal behaviour of the offender. Hence, although the Reintegrative Shaming Theory presents the merit to attempt to harmonize most of the existing criminological theories, it falls inside a theoretical chaos.

Braithwaite (1989) is unable to resolve the existing conflict among the opposite theoretical assumptions. Exempli gratia, the relationship between morality and crime that has been postulated by the different criminological theories, which she attempted to integrate. Braithwaite (1989) is also unable to explain the first manifestation of the criminal behavior as I wrote supra.

Situational Action Theory of Crime Causation

At the present tense, there is only a theory that: can be worth to be considered; and, is able to explain “why” and “how” people “break moral rules defined as crime in law” (Wikstrom, 2006a), even if these people are “good” and have “internalized” moral norms.

According to Wikstrom (2006a), “crimes are acts of moral rule breaking. To explain crime is to explain why individuals break moral rules defined as crime in law”. This does not mean that Crime and Morality overlap completely as: “not all moral rules are criminal laws” Wikstrom (2006c); and “a theory of crime causation … does not imply any acceptance of existing laws as necessarily legitimate or morally justified based on higher order moral principles” (Wikstrom 2006a).

The importance of the link between moral rules and criminal law according to the Situational Action Theory of Crime Causation seems to be double.

First of all, both moral norms and criminal law share common structures, languages and functions: “Moral rules prescribe what is right and wrong to do (or not to do) in a particular circumstance. Criminal law is essentially a set of moral rules” (Wikstrom, 2006a).

The present writer underlines that this happens because: on one hand, both of them are normative language; on the other hand, both of them are part of the bigger set of Social Norm. Moral and Legal Norms are two different type of Social Norms.

Second of all, the mechanisms (Bunge, 1999), which operate when people break both moral norms and criminal law, seem to be the same.

This latter point is well described by Wikstom. “To explain why individuals obey the law, or why they commit acts of crime, is to explain why they follow or break moral rules defined in law. To explain why individuals commit crime is, in principle, the same as explaining why they break any moral rule (i.e., the basic casual mechanisms are the same)” (Wikstrom 2006c).

For these reasons, the Situational Action Theory of Crime Causation defines crime “as an act of breaking a moral rule defined in criminal law” (Wikstrom, 2006a).

According to Wikstrom (2006a), the “moral rule guidance plays an essential rule in what moves an individual to act (or not act) in a particular way”. This happens inside the interaction between the “individual moral engagement with the moral context of a particular setting” (Wikstrom, 2006a).

This interaction is described by the Situational Action Theory of Crime Causation with a five steps’ mechanism: individual morality (moral values and emotions); moral perception; either moral judgment or moral habit; moral choice; moral action.

The individual morality represents: the different moral values that individuals can have; the “different moral threshold … for breaking particular moral rules” (Wikstrom, 2006a); and the set of moral categories used by people for interpreting contexts.

The moral perceptions are interpretations of the moral settings through the “filter” of people’s particular moral values. The “ identification of the action alternatives and their moral qualities in response to particular motivations in a particular setting” (Wikstrom, 2006a) is determined by the moral perception.

In the moral judgments and moral habits stage, people evaluate both the moral qualities of the perceived contexts and the potential appropriate alternative actions. Moral judgments happen when people deliberate “over the moral qualities of the perceived action alternatives” (Wikstrom, 2006a). This happens in particular in unfamiliar settings. Moral habits (on the other side) do not involve any deliberation. They are “automatic” responses that have grown out from repeated experiences[4].

In the moral choice stage, people decide how to perform their actions.

Finally, moral actions are the overt outcome of the covert mechanisms described supra.

The importance of these mechanisms is to provide a good explanation of the nature and causes of crime. This is useful for elaborating an effective crime prevention program (Wikstrom, 2006b).

Re-defining Morality

Although the Situational Action Theory of Crime Causation is: both, the best account on Crime and Morality at the present time; and a good example of “the multiform status of … criminology” like “a mixture of data on science, law … and morality” (Wolfgang and Ferracuti, 1982); it could be improved.

The present writer believes the social psychology able to increase the understanding of: both, the criminological phenomena; and, the relationship between criminal law and moral norms.

This could happen in two ways. First of all, it is possible to apply the existing research findings on the moral development (exempli gratia, Piaget, 1932; Kohlberg, 1964; etc…) to the criminological theories. Second, it is possible to improve the definition of moral norm like social norm. Consequently, it is possible to apply the research findings of the latter to the former.

The present writer strongly advises this second method. In other word, I believe to be very important and useful to improve the definition of moral norm like social norm.

This is needed as, when people speak about morality (and moral norms), they usually refer to a set of eternal, immutable, universal law that are based on a either divine or natural ground, which is innately rooted inside the conscience of human beings (Stephen, 1991). People are “good” if they recognize, and comply with, these “self-evident” moral values. People are “bad” if they are not able to identify those “self-evident” values.

Recently, a “self-evidence” based view of Moral Norms was re-presented inside the Natural Law’s Theory of Finnis (1980). This theory re-presents some Aquinas’ ideas (without having the theoretical background that was used by Aquinas!). Moreover, as Ancient Greeks already observed, what is self-evident for someone is not self-evident for someone else, and vice versa.  How can moral codes be self-evident, when “moral codes accepted at different times and places have been … different” (Stephen, 1882)?

Moreover, post-modernistic literature has largely demonstrated the impossibility to justify empirically or logically moral values.

The present writer argues that morality like self-evidence norm is based on the fundamental attribution error. The latter is the “innate tendency for the observers to underestimate situational influences and overestimate dispositional influences upon others’ behaviour” (Myers, 1999). In other words, the fundamental attribution error represents the tendency to under-estimate sociological factors that determined the individual’s behaviors.  Moreover, people tend to assume them and their society / social groups to be “absolute good” (!!), so if someone does not act as they want, he/she should be: “evil”; “ill”; “crasy”; “ugly”; “smelly”; “immoral”; “criminal”; “felonious”;  … unable to understand their absolute right and just “self-evidence” dogmas!!!!!!  They cannot think something wrong could be inside them and their social group!!

Exempli gratia, the fundamental attribution error biases in part the theory of Kohlberg (1964, 1976). According to Kohlberg’s theory, criminals break Law as they “suffer from what is, in essence, an arrested level of moral development” (Haney, 1983). Kohlberg (1964, 1976) argues: both, pro a universal and eternal definition of moral law[5]; and, pro an overestimation of individual dispositional factors. One of these Kohlberg’s Beliefs is that: criminal behaviors are the outcome of the individual inability to progress at higher moral stages[6]!! But, behind the appearance of a pleasant discourse, at the end, these “higher moral stages” mean only to obey to the pro tempore Power’s Will!! Who obeys to the Power is always: “good”; “clever”; “nice”; “good-looking”; “moral”; “sane”; “equilibrate”; “fragrant of roses”; and so on … .  That’s all Folks!!

The present writer argues that Kohlberg does not keep in account a realistic developmental prospective. He neglects important developmental aspects such as non-normative factors (Baltes, 1987), which can affect deeply the human development

The only empirical approach for studying moral norms is to recognize them simply for what they are: social/group norms (customs). The very fact that they are different among people (even if when they are members of the same group) is due the different life experiences. This is not a negative factor. It is a necessary part of the human evolution. What is negative and dis-adaptive is: homologation; standardization; normalization; etc… .

This definition is supported by Dewey (1922) and Stephen (1991).

The former states: “morals means customs” as “everywhere customs supply the standards for personal activities. ” … “Customs (not only)… constitute moral standards”, but “customs (also) make law”. The later argues that law can only be “simply a particular case of custom” as no social organization can last long on coercion since “a bond which rested solely upon fear would give, not an organic compound, but a temporary association, ready to collapse at every instant”.

The present writer agrees with them.

Most people respect criminal law without having any idea of the articles of criminal codes. They do not offend even if they do not know the different interpretations given by Courts.

All in all, moral norms like social norms (customs) seem to be a realistic approach able to enhance the understanding of: both, the relationship between morality and crime; and, our comprehension of the Nature of Crime.

How Social Psychology may help the Situational Action Theory of Crime Causation

I think the Situational Action Theory of Crime Causation could be integrated with some research findings developed inside the Social Psychology, Cognitive Psychology and Social Cognition.

For instance, the research findings on conformity, compliance, acceptance, norm formation (Sherif 1935, 1937), group pressure (Asch, 1955) and authority obedience (Milgram, 1965, 1974) could be integrate in its framework.

People, indeed, could behave in opposite manners respect their: moral values and beliefs; moral perceptions; moral judgments; moral habits. This could happen simply for: group pressure; de-individualization (Freedman, Sears and Carlsmith 1978); compliance to Authority; or, conforming to social roles. Exempli gratia, does somebody still remember the Sanford Prison Experiment (Zimbardo, 1972)?

Conclusion

I believe the Situational Action Theory of Criminal Causation a good construct to enhance the understanding of the relationship between Morality and Crime.

Nevertheless, I argue that this framework may be improved with the research findings of the social psychology.

Indeed, at the present tense, the Situational Action Theory of Criminal Causation seems unable to explain clearly the hypothesis in which: people, who recognize their actions like “wrong”, decide to perform them.

Constructs like social pressure, obedience to authority, norm formation,   etc…, should be integrated to resolve these possible contradictions.

[1] This quotation of Peters (1958) has been also used by Wright (1971).

[2] Exempli gratia, one of the assumptions of the Social Psychology is the Pervasive Nature of the Social Influence (e.g., Smith E. and Mackie D. 2004). Who does not consider this element, does NOT understand a lot in Psychology!!

[3] That’s all. Evidences are given every day. Actions (done by members of differ groups) are evaluated in very dissimilar manners. On one hand, some behaviours (done by some people) are considered “evil”. Media are “forced” to describe them worst and bigger they are. On the other hand, the same (or worst) behaviours (done by others) are considered “good”!! Media: either, cannot speak about them; or, can speak very briefly avoiding any “unpleasant” word!! If this is not a matter of Social Power!?!?

[4] Classical and Operant Conditioning.

[5] Exempli gratia, expressed in his universal valid stages.

[6] Kohlberg copies this “nice idea” from Spiritism!! Indeed, far before Kohlberg, Spiritism suggested that Spirits’ wicked behaviours were consequences: either, their lower Moral Evolution; or, their inability to evolve to higher Moral Stages.

Something about Lie-Detectors

ABSTRACT

Whereas some of the English speaking Countries use Lie-Detectors, other Nations (such as the Wisest and Sagest Italy) do not! This article, very briefly, shows why Lie-Detectors should not be trusted. Exempli gratia, they could be perilous and dangerous instruments during police enquires and/or any other investigation of Truth.

In other word, Lie Detectors could not be more trustable then Medieval “Trial of Ordeal” and/or Judicium Dei!! Why? Read the article and get the answer by Yourself!

 “And after all, what is a lie? Tis but

The truth in masquerade; and I defy

Historians, heroes, lawyers, priests to put

A fact without some leaven of a lie.

The very shadow of true truth would shut

Up annals, revelations, poesy,

And prophecy …

Praised be all liars and all lies!”

Lord Byron, Don Juan

Introduction: lies and human ability to recognise them.

It is believed that abilities to recognize lies have been developed from the earliest human history. They were supposed necessary skills for human survivor (Swanson C. R., Chamelin N. C. and Territo L., 1996). Nevertheless, the homo sapiens sapiens does not seem to have succeed in this “adaptation”! Their abilities to identify lies are not higher then chance (Ekman and O’ Sullivan, 1991). Indeed, even though most people believe to be able to recognize deceiving, very few of them (independently by their professions and experiences) are able to perform better then chance (Bartol C. R. and Bartol A. M., 2004; Kraut and Poe, 1980; De Paulo and Pfeifer, 1986). In some empirical cases, data showed performances lower then chance (Porter S., Woodworth M. and Birt A. R., 2000).

Only the U. S. secret agents of Central Intelligence Agency (C.I.A.) have performed better then chance. They had a score of 64% in deceptions’ identification (Ekman P. and O’Sullivan M., 1991). In other words, they are wrong one third of the cases!! Good job (!), considering the consequences of their actions!

The ability of human beings to read the verbal and not verbal communication of the others was the first kind of lie detector. It was believed (from the Ancient Time) that: when a person lies, he/she is nervous for his/her sense of guilty. Hence, liars manifest physiological arousal and behaviours such as: looking down; avoid gazing at the eyes of accusers; moving their “big toe in circle”; getting dry their mouths (Swanson C. R., Chamelin N. C. and Territo L., 1996; Segrave K., 2004). According to Segrave (2004), Vedas have described some of these clues since Antiquity. More recent studies (from: psychology; ethology; physiology) seem to have confirmed the tendency of the human beings to express their deceiving with some verbal and not verbal signs.

Ekman, O’Sullivan, Friesen and Scherer (1991) suggest that the combination of the verbal and facial clues allowed performances of 86% in lie detector. But, this study has not been confirmed by others literature!

The failing to detect lies (using the verbal and not verbal clues) is originated, according to Vrij A. (2000), from observers’ will, as they “do not want to detect lies”. I do not believe this is the reason. I consider reason: the unreliable nature of these signs. They could be, simply, neutral expressions of emotional states that can: be originated by different sources; indicate opposite feelings. Thus, any associations between these signs and lies …: could be arbitrary; and follow observers’ expectances. Furthermore, human beings react differently each other’s. So, it is not possible to individuate behavioural patterns able to indicate lying. Evidences are given by the study of: Akehurst et. al. (1996);  Kapardis (2005). According to the latter, people are more accurate in recognition their own lying patters of behaviours rather than others.  This implies the existence of different patters of behaviour from person to person.

There are a lot of evidences about the unreliable nature of these indicators. For instance: the eye blinking, considered a deception – indicator (Kapardis, 2005; Bartol C. R. and Bartol A. M., 2004), has not been confirmed by other studies (Mehrabian, 1971). Then, the avoidance of looking at the other peolple’s eyes does not mean necessary: lying. It can also indicate politeness (e.g. staring is considered aggressive behaviour). Next, it could indicate simply: shyness; etc… .

Further, some authors (Swanson C. R., Chamelin N. C. and Territo L., 1996) consider “opening wider the eyes” like a clue of deceiving. But, this sign can, on the other hand, simply indicate: a state of surprise; and/or the wish to “see clearer” (Eibel-Eibelfeldt, 1993).

More, the higher pitch of voice, considered a good indicator for lying (Kapardis, 2005), correlates also with intimate relation (Eibl-Eibelsfeldt, 1993).

Although Vrij (2000) thinks that “some behaviour are more likely to occur when people are lying”, I believe they caused by different factors (of opposite nature) that do not allow any trustable use.

One of these opposite factors can be: both the fear of the deceiver and the fear of the innocent to be involved in an unpleasant situation (Swanson C. R. Chamelin N. C. and Territo L., 1996). This is as the emotional and physiological arousal is “the same” for every feeling.

Thus, I agree with Kapardis (2005) that human beings are not good lie detectors.

Consequently, we are going to focus on the “technological” lie detectors: voice lair detectors (psychological stress evaluator); and polygraph.

 

Technology employed in the recognition of deceiver: voice lair detectors; polygraph.

Psychological Stress Evaluator (PSE)

According with Kapardis (2005) and Bartol C. R. and Bartol A. M. (2004), Psychological Stress Evaluator (PSE) is based on some assumptions. One of these is that: physiological stress produces changes in the voice of liars. Hence, the Psychological Stress Evaluator attempts to identify low frequency changes in the voice to recognize the presence of a higher stress. The “micro-tremor in the vocal muscles” is used like indicator. Although the PSE could be employed in a wide range of application (Kapardis, 2005; Segrave K., 2004), different studies report it does not perform better then chance (Kapardis, 2005; Bartol C. R. and Bartol A. M., 2004).

The changes in the voice, indeed, are not characteristic features of lying. They follow a wide range of emotions (Lykken D. T., 1988; Eibl-Eibesfeldt I., 1993). For instance, they can be produced by: the uncomfortable feeling caused by a “particular question”; and/or by the person who makes the question; and/or by the situation itself.

In these cases, one can result “liar” even telling the truth.

Polygrap

A better instrument, with less application then PSE, is the polygraph.

The polygraph attempts to recognize those physiological changes linked with offenders’ fear to be identified like liar (Howitt D., 2002).

Many items are measured (poly = many; graph = measures). They are: respiration; heart rates; blood pressure; electro-derma response.

According to Bartol C. R. and Bartol A. M. (2004), Kapardis A. (2005), Raskin D. C. (1989) and Vrij A. (2000), there are different techniques: the relevant – irrelevant technique (R-I); the control question test (CQT); the guilty knowledge test or Information Test (GKT)[1].

Relevant – irrelevant technique (R-I)

The R-I method assumes that: the fear to be identified like liar produces more physiological responses to relevant questions then the irrelevant ones (Bartol C. R. and Bartol A. M., 2004).  This assumption does not always work. A strong emotional response (to the relevant questions) can be given by: both liars; and truthful people (Bartol C. R. and Bartol A. M., 2004; Gale A., 1988). Is can fallow “the simple fact that innocent” people are “anxious about the outcome”. So, they produce positive responses to the relevant questions (Kapardis A., 2000). Moreover, the literature indicates that R-I has not met an acceptable internal and external validity (Ruskin D. C., 1989).

Control question test (CQT)

The CQT method applies three types of questions: neutral questions; relevant questions; control questions (Bartol C. R. and Bartol A. M., 2004; Ruskin D. C., 1989; Vrij, 2000). The control questions are the key feature of this test. The physiological reactions, exhibited during the control questions[2], are confronted with subjects’ reactions exhibited during relevant questions (Ruskin D. C., 1989; Vrij A., 2000).

This method has several problems. The difficulty to construct control questions “that will elicit stronger physiological responses in the innocent than relevant question about the crime” (Bartol C. R. and Bartol A. M., 2004; Ruskin D. C., 1989; Vrij, 2000). The increase of emotional arousal in innocent subjects that can be caused by different reasons, not related to the sense of guilty (Vrij A., 2000).  The weakness of its theoretical foundation and logical rationale (Ben-Shakher G., 2002). The inadequate standardization (Ben-Shakher G., 2002). The lack of physiological responses’ objective quantification (Ben-Shakher G., 2002). The problem of contamination from not – physiological responses (Ben-Shakher G., 2002). The examinees’ belief about the infallibility of the test (Vrij A., 2000). In absence of this latter, the physiological reactions can be inappropriate to the outcome of a reliable test.

Guilty knowledge test or Information Test (GKT)

The GKT is considered one of the best methods for detecting lying (Bartol C. R. and Bartol A. M., 2004; Ben-Shakher G. and Elaad E., 2002), even though little work has been done for its implementation (Ben-Shakher G. and Elaad E., 2002). According to Ruskin D. C. (1989), Vrij A. (2000), Kapardis A. (2005), the questions[3] are constructed using unknown material about the scene of crime. This material can be known only by: examiners; people present at the criminal scene. The test has the form of a multiple-choice test. It is aim is not to discover deception, but presence of “guilty knowledge”. The guilty knowledge is detected observing strong physiological reactions with alternatives related to the crime scene.

One of the best discriminator, between the presence of guilty knowledge and its absence, appears to be the electro dermal responses (Kapardis A. 2005; Raskin D. C., 1989).

According to Ben-Shakher G. and Elaad E. (2002), this method can resolve different problems that rose with the formers’.

First of all, it applies standard procedure. Thus, all the examinees go through some experiences. Second of all, the risk of results’ bias with not-physiological information is decreased. Next, its “accuracy can be estimated from laboratory studies”. Finally, the risk of false positive is reduced.

Although these positive elements support the GKT, this method has also several limitations: the availability of enough items (unknown about the crime) to use in the questions (Bartol C. R. and Bartol A. M., 2004); the fact that details used by examiners was not perceived by guilty subjects (Vrij A., 2000). The examinees could also forget details (Vrij A., 2000). Then, there are few trained polygraphers, as this method is not included in most of the training programs (Bartol C. R. and Bartol A. M., 2004). Further, the limit number of real crimes in which can be used (Kapardis A., 2005; Vrij A., 2000). Moreover, the main limit of this method is its feature of recognising only guilty knowledge. Hence, offenders can always say they were present to criminal scenes like witness but they were not the offender (Vrij A., 2000). Also, innocent eyes-witness (who denied their presence to avoid to be involved) could be considered offenders (Vrij A., 2000).

As a consequence, I firmly disagree with Kapardis (2005) and Ben-Shakher G. and Elaad E. (2002) when they affirm the CKT able to protect “innocent suspects from being falsely classified as guilty”!?!?!?

Bias factors operating with every method

Independently by methods, a wide range of factors can also bias polygraph results. They are: the experience of examiners (Kapardis A., 2005); the talent of examinees in lying (Kapardis A. 2005); the use of countermeasures by examinees (Vrij A., 2000; Gudjonsson G. H., 1988; Ben-Shakher G. and Elaad E., 2002; Honts C. R. and Amato S. L., 2002)[4]; the confirmation bias, e.g. when examiners know examinees to be suspects (Howitt D., 2002).

In addition, the theoretical foundations and assumptions, on which the polygraph tests are based, have received strong radical critics (Ney T., 1988; Lykken D. T., 1988). Ney T. (1988), after having identified polygraph testing’s four assumptions[5], concludes these are false. The reasons are: people may control their physiological reactions; “specific emotional stimuli cannot predict emotion” as we cannot know how the individual cognition evaluates an “emotional stimulus”; “relationship between the different parameters of emotion is … weak”; “individual may vary between themselves across a number of parameters of emotion”.

Lykken D. T. (1988) argues that the human beings are not “equipped with a distinctive physiological responses that” they emit when they lie. A thesis confirmed by Bull R. M. (1988), who states that does not exist such thing as special physiological responses produced by people when they lie.

Another problem (few considered by the literature) is the inability of the polygraph to distinguish between lies and false memory. In this case, people can result truthful even if they tell something that is not true. The lies-detector “measures” what people “feel” to be true, not what is objective true.

The large amounts of mistakes made by polygraph tests (false positive; false negative) confirm the reasons (supra illustrated) of the critics’ good foundation. According to Carroll D. (1988), false positives are more than false negatives.

The reliability of the laboratory studies emphasized by some writers (such as: Ben-Shakher G. and Elaad E., 2002) was criticized by Howitt (2002). The latter argues laboratory studies not a good instrument to verify the accuracy of polygraph. The examinees are set in different emotional contexts respect those of real criminal investigations. Failing the set – up laboratory polygraph test does not imply anything. Failing a polygraph examination during a police investigation can have serious consequences even if one is innocent.

People, without a strong alibi, prefer confessing false crime rather then to defend their innocence. If they confess a false crime, they have more soft criminal consequences then defending their innocence. Moreover, a good legal defence needs economic resources than not everyone can have.

I disagree with psychologists that believe false confessions (made after a positive polygraph) to be consequences of doubts about memories (Vrij A., 2000). They could be, more likely, a rational choice caused by a Legal System that gives too importance to Psychology! It is better for an innocent (without a good alibi) confessing false crimes rather than challenging polygraph results in the Court. The latter choice will lead to stronger criminal consequences!!

Brainwaves analysis of guilty knowledge & functional magnetic imaging (fMRI)

A possible solution, at these lacks of accuracy, can be seen in the brainwaves analysis of guilty knowledge. According to Kapardis (2005), this method is characterised by detecting P3 or P300 brainwaves. They are supposed to be event-related waves evocated by uncommon stimuli with special significance for people. These waves are assumed to detect guilty knowledge with a better accuracy then CKT.

Using functional magnetic imaging (fMRI), it is possible to individuate areas of the brain that are used when people pay attention and try to control errors (anterior cingulated gyrus and prefrontal cortex).

This system is believed to guarantee a higher accuracy, and at least to exclude countermeasures bias (Kapardis A., 2005).

Personally, I think that these beliefs (like always happened) follow newer methods’ enthusiasm! First of all, it is too early to express any kind of appreciation on these methodologies. They are not been used a lot. Only after some real applications in legal settings, we could “appreciate” both the weaknesses and strengths of these methods. Second of all, the neurosciences are a perilous field! Indeed, the images and brain area activations could be determined always by different processes and functions (e.g. Benso F., 2013). In other word, it is always the REALITY (the material facts) to give meaning to the images of neurosciences, not vice versa!! Third, the data in neurosciences are mediated by computer’ software. They cannot be trusted so much. They are not always able to reflect REALITY.

Anyways, at the end, remember: “everything has its abuse as well as it is use” (Bernard Show).

Conclusion

Although the mankind have been attempting to find a system able to discriminate between true and lie since Antiquity (Segrave K., 2005), human beings have not succeeded in this research. The results are contradictory. The degree of errors is still elevated. The literature is divided into two “parties”. One is for a sceptic idea about lie detectors (Nye T., 1988; Carrol D., 1988; Lykken D. T. 1988; etc…); the other one supports them, despite of their weakness (Barland G. H., 1988; OTA, 1993; etc…).

Whereas polygraphs had a wide use in USA, some European States do not allow lie detectors: both in criminal setting during the investigation and in front of Courts. Polygraphs are not also allowed in labour personnel selection. These decisions have been made: due the high degree of inaccuracy; and, due ethics issues.

All in all, “a lie detector does work as long as the subject believes it works. A good examiner scares the crap out of you. It’s theatre” (Leonard Saxe)[6].

But, Truth and Justice should not be the outcome of theatrical representations!!

[1] Other methods exist, even if they are less used, such as: relevant – relevant procedure (Bartol C. R. and Bartol A. M., 2004); the directed lie control test (Ruskin D. C., 1989). The former was an attempt to resolve some weakness of the R-I method; the second one has been the attempt to resolve some problems of the CQT.

[2] Such as: denying a behaviour that likely every people do.

[3] Used in this method.

[4] Even if some authors does not believe in the effectiveness of the countermeasures used to bias the polygraph (tongue biting; foot tensing; counting sheep or backwards); others studies show that people trained in using countermeasures can be able to beat the polygraph test (Vrij A. 2000). Honts C. R. and Amato S. L. (2002) reports, for instance, how the different countermeasures work with the different methods (R-I, CQT and GKT).

[5] The four assumptions are: the human beings cannot control their physiological reactions and behaviours; “specific emotions can be predicted by specific stimuli”; “there are specific relationships between parameters of behaviour”; there are no differences in the response of people (Ney T. 1988).

[6] This quotation has been reported by Segrave K. (2005).

Methodological Mistakes’ Example in Psychological and Criminological Research. Example number 1: The role played by the “attention shifting in children pro-social behavior” (Wilson B. J., 2003) and how re-doing the research with a better Methodology!

ABSTRACT

This article shows an example of “how” a lot of psychological and criminological research has been done with poor methodology. Behind an apparent “scientific” appearance, some of these studies hid plenty of vitia (methodological mistakes), which prejudice results. In this way, the research findings are biased in the direction wanted by the observers.

This article shows the methodological vitia done by Wilson B. J. (2003) in a research on the “attention shifting” in “pro social” and “antisocial” children.

After having explained the mistakes, the article illustrates how the study should (eventually) re-done with a better methodological awareness.

Rationale – Background (Wilson’s mistakes).  

This Paper shows an example of “how” a lot of psychological and criminological research has been done with poor methodology. Like sample, the study on the attention shifting made by Wilson B. J. (2003) is used. The Paper, after illustrating the methodological mistakes, explains how the study should be “re-done” with a better methodological awareness.

According to Miller, Galanter and Pribram (1960) the cognitive processes are a central aspect to understand the human behaviour. The social information-process research could be applied successfully to the understanding of the aggressive and antisocial behaviour in the human beings (Losel F. 2005).

From the basic information processing model TOTE (Test – Operate – Test – Exit), proposed by Miller G. A., Galanter E. and Pribram K. H. (1960) more accurate models have been developed. Dodge, for instance, applied a social information-processing model for understanding children’s aggressive responses (Losel F. 2005; Lewis M. and Miller S. M. 1990; Dodge K. A. and Coie J. D. 1987; Crick, N. R. and Dodge K. A. 1996; Dodge et al., 2003).

According to Lewis M. and Miller S. M. (1990), Dodge indicated five stages that are involved in producing appropriate or inappropriate response.

These stages are: encoding; interpretation; response research; response decision; enactment. Inappropriate aggressive responses can be produced by some deficits in one or more of these stages. For instance, subjects: can misunderstand situations; or have learned a range of few possible responses to those situations.

Although a relation between cognitive processes and behavioral responses seem to be proved, the research, on “how” individual elements (of the Information Processing Model) affect behavioral responses, presents several limitations.

Some of these studies, for instance, are examples of inaccurate research.

The study of Wilson B. J. (2003) on the rule played by the “attention shifting in children’s pro-social behavior” has presented different methodological mistakes.

First of all, experimental groups were only two: 27 aggressive/rejected participants; and 27 non-aggressive/popular participants. A control group was absent.

Second of all, the subdivision in two groups (aggressive/rejected and non-aggressive/popular) has been an arbitrary distribution. A better study should have considered four different groups: aggressive/rejected; aggressive/popular; non-aggressive/rejected; non-aggressive/popular. Dodge K. A. et al. (2003) have demonstrated that: peer rejection predicts growth in aggression. Thus, from the study of Wilson B. J. (2003), we do not know with “what” attention shifting correlates. We do not know the nature of subjects’ aggressive behaviors. Is this related with “endogenous” aggression (e.g. traits)? Is this related with exogenous aggression (e.g. like natural answer to others’ aggressive behaviors)? Is this related with social rejection? … Etc… . We do not know.

Moreover, we will never know social rejections’ factors that determined aggressive answers. It is true that correlation does not mean causation (Hagan F. E., 2005), but the study of Wilson B. J. (2003) is not able to show the nature of this correlation. The “apparent correlation”, which was found, is the outcome of a chain of methodological mistakes and prejudices. The aggressive behaviors of the aggressive/rejected group, instead of being linked with endogenous factors, could be a mere consequence of social factors (outside the subjects). Those factors could be, exempli gratia, the rejections made by others.  It is possible that who rejected was more aggressive of the rejected one. For instance, the former could have acted with pro-active aggression. The latter could have answered simply with a natural reactive aggression.  Usually, receivers of aggression are the social weaker people. Thus, at the end, the subdivision made by Wilson B. J. (2003) is: arbitrary; biased by social factors such as the relations of “power” existing among the members of the group. Furthermore, traits attributed to subjects could be consequence of social mechanisms such as: just a world; fundamental error of attribution; scapegoat. The “guilty one” should be: the social weaker person. It is easier! It is a “social tradition”!! Thus, the correlation (found by the researcher) was consequence of many bias’ mechanisms operating in the Social and Psychological Sciences Research. An illustration of them, it is given by Epis L. (2011/2015).

The study of Wilson B. J. (2003) itself gives evidences of what the present writer wrote above. One of these is the strong selection bias. No equivalent groups have been chosen for comparison (Hagan F. E., 2005; Bachman R. and Schutt R. K., 2003). Groups have been selected in biased ways, which have affected the result of the Null Hypothesis Test. The aggressive/rejected group had a majority of male; whereas the non-aggressive/popular group had a majority of female. As “girls, regardless of status, have less difficulty then boys (in) shifting attention from one affective state to an others” (Wilson B. J., 2003), the higher presence of girls in the non-aggressive/popular group has enhanced surely the performance of this group. In the same way, the higher presence of boys in the aggressive/rejected group has decreased certainly the performance of this group. This is proved and attested by the same research findings of Wilson B. J. (2003)!!!!! Thus, it is simply a matter of logic! But, RARERY is LOGIC used by Psychologists and in Psychological Research (Epis L., 2011/2015). In other words, the different number of male and female inside the two groups have, according to the same research findings, biased and prejudiced the performances of same groups, creating a statistical significance that would not be existed without these mistakes. But please, do not worry if you cannot understand these logic implications. Even a lecturer of the University of Cambridge (e.g. Painter Kate) was unable to understand those aspects[1]!!

Moreover, as I introduced supra, the study of Wilson B. J. (2003) do not make any distinction between pro-active and reactive aggression. Hence, at least, we do not know if the attention shifting correlate differently with these two types of aggressive behaviors.

The distinction between proactive and reactive aggression is fundamental. According to Vitaro F. and Brendgen M. (2005) the reactive aggression “has its roots in the frustration-anger theory”; whereas the pro-active aggression “is more in line with the social learning model of aggression”. These two types of aggression seem to be present differently in the children. According to Camodeca M. and Goossens F. A. (2005), the reactive aggresion is common both in bullies and victims; whereas the proactive aggression was “only characteristic of bullies”. The proactive aggression, however, is not only a characteristic of the bullies (Camodeca M. and Goossens F. A., 2005), since Dodge and Coie (1987) have found that proactive aggressive boys “were also viewed as leaders”. Moreover, Crick and Dodge (1996) suggested that proactive and reactive children processes social information differently[2].

Hence, also, these research findings prove the presence of biases and prejudiced discussed supra.

For all these reasons, the relation between aggression and attention shifting cannot be proved by the exanimated study.

Here below, I explain how the research could be done with more methodological awareness.

A New Research on the Attention Shifting: the Research Questions

The investigation should verify whether attention shifting operates differently between proactive and reactive aggressive children. Furthermore, more categories should be considered: bullies; leaders; popular and unpopular children[3]; and so on.

Exempli gratia, we will attempt to understand if there is a difference in attention shifting among: proactive bullies; proactive leaders; reactive popular children; reactive unpopular children.

Methodological Approach and Research Hypothesis

 

Methodological Approach

This investigation is a correlation study. Hence, inferential statistic will be used. The level of statistical significance will be the customarily a = 0.05 (p<0.05)[4] (Hagan F. E. 2005). The test of significance will be non-directional (two-tailed), as at the present tense, there is not enough literature (produced with good methodology) that can suggest a direction instead of another one among the considered groups.

Attention shifting will be measured with ten thematic groups of six pictures. The protagonists of each thematic groups present different combination between aggressive/hostile and non-aggressive/friendly “body language” and “expressions”. Attention shifting (between negative and positive emotions) will be measured. The importance given by subjects to opposite cues and their abilities to recognise them will be considered. The pictures will present: both/either aggressive/hostile contexts; and/or non-aggressive/friendly contexts. The pictures should be done in way that: the general population of the children (between six and seven years) recognises half of them like aggressive/hostile and half of them like non-aggressive/friendly. Validity and reliability of the thematic pictures must be checked with a precedent study[5]. A higher number of identification like aggressive/hostile behaviour will indicate more attention to the aggressive/hostile cues. A higher identification of non-aggressive/friendly behaviours will indicate more attention to the non-aggressive/friendly cues. The thematic group of six pictures will be displayed for a short time (10 seconds) on a monitor. Children will have to classify each context like: either aggressive/hostile; or non-aggressive/friendly. The short time given for observing allows researchers understanding where attention shifting focuses more.

Research Hypothesis

The research hypothesises are:

  1. there is statistical significant differences in the classification made by reactive and proactive aggressive children?;
  2. there is statistical significant differences in the classification made by reactive unpopular children and the reactive popular children?;
  3. there is statistical significant differences in the classification made by proactive bullies and the proactive leaders?

The null hypothesises, briefly, are: there is not statistical significant differences BETWEEN and AMONG groups.

Research Design and Method

Participants

Four groups (each one) composed by 40 participants (20 male; 20 female) will be used.

The children will be selected in primary schools. The age will range from six to seven. A wider age difference will be avoided as it could introduce confounding variables. The difference age can itself be a factor able to affect the reactions (Vitaro F. and Brendgen M., 2005).

The reactive and proactive children will be selected using the “teacher-rating instrument” developed by Dodge and Coie (1987). According to Poulin F. and Boivin M. (2000), this scale seems has good validity.

The subdivision of proactive aggressive children in two groups: bullies and leaders (in absence of a validated scale) will be done considering the opinion of the teachers and the opinion of their classmates. Nevertheless, this can be a bias factor. Also the subdivision of the reactive children in two groups: popular and unpopular (in absence of a validated scale) will be done considering the opinion of the teachers and the opinion of their classmates.

All these groups should have (for the reasons illustrated supra) an equal presence of male and female. Otherwise, male and female should be compared only with other male and female. This is due the fact that girls and boys perform differently in attention shift (Wilson B. J., 2003). Hence, the prevalence of male or female in a group will bias the group performance.

Procedure   

The four groups will have to classify 60 pictures. They are gathered in 10 thematic groups with 6 items each. Each thematic group is constituted by: the same protagonists; the same contexts; with different body language and expressions. The body language cues will be gradually changed from aggressive/hostile to non-aggressive/friendly. Exempli gratia, one should have 100% of aggressive/hostile body expressions; one should have a mix of aggressive (65%) and friendly (35%) expressions; two should have a mix of friendly (50%) and aggressive (50%) expressions; one should have a majority of friendly cues (65%) and a minority of aggressive (35%); one should have only friendly expressions.

The children will sit in front of a personal computer (PC).

Each thematic group will be displayed on monitors for 10 seconds. The children will have additional 10 seconds to give their choices (without the pictures). The thematic groups will be presented in different order (made at random).

The child will have to classify the situation represented by the six pictures like: either aggressive/hostile; or not-aggressive/ friendly.

A short break is done between each thematic group. During this break, the test-administrator asks to children if all is right and they are ready to proceed. It should last 30-40 seconds approximately.

The computer program will record the choices automatically.

Measures

The data will be analysed using the program SPSS.

An analysis of variance (ANOVA), correlation and regression, will be performed. The null hypothesises will be accepted or rejected according to these data. The level of statistical significance will be the customarily a = 0.05 (p<0.05).

The assumptions of: normality; homogeneity of variance; and continuity and equal intervals of measures; … are also tested. It is suggested by Kerlinger F. N. (1973).

Contribution

A study, made according to these criteria, could be a good attempt to understand if:

  1. exist a possible correlation between the attention shifting and aggressive behaviour;
  2. this correlation is different between proactive aggressive children and reactive aggressive children;
  3. this correlation is different between aggressive children with opposite social rules.

Ethics Issues

According to the code of practice (1993) of British Psychological Society, the informed consent of the parents (or those peoples who act in loco parentis) will be asked. The permission should be given after having received full information. It should be free and informed. Researchers will organise meetings with parents to explain the research study.  The study will avoid harming participants. Children (who will feel uncomfortable) will be withdrawn. Assistance will be provided if needed. Researchers will be committed to stay away from harming the participants as it happened in some experiments and studies such as, for instance, Cambridge-Summerville (1930). In that case, the boys of the treatment group have been harmed by their participation (Kimmel A. 1988; Ruane J. M. 2005).

The anonymity of the participants will be guaranteed using a number instead of their names.

Limits of the studies

It was believed that the main limitation about all these studies was about the overlap between attention and perception. This was believed as attention and perception are two different cognitive processes (Sternberg R. J. 2000).

Nevertheless, it is not. Indeed, according to Benso F. (2013) there is not perception without attention. This thesis is corroborated by plenty of recent research findings in cognitive neurosciences.

Thus, even if this question was not considered enough by Wilson B. J. (2003), nowadays it seems not to be an important issue.

After this study, further studies should be done to verify the relation between the different types of aggression and the attention[6].

Common limits for every study done with the actual customary methodological quantitative research are those described by Meehl. Exempli gratia, Meehl (1990a) argues that the: “Null hypothesis testing of correlational predictions … is subject to the influence of ten obfuscating factors whose effects are usually (1) sizeable, (2) opposed, (3) variable; (4) unknown”[7].

Meehl (1990a) suggests a possible way to reduce at least the problem of inadequate statistical power: applying at “your sample size at a power of .9 or better”. This can reduce the source of type I error (a) (risk to reject a true null hypothesis), but, on the other side, this increases the type II of error (b) of not rejecting a false null hypothesis

Different problem is the crud factor. According to Meehl (1990a; 1990b) the crud factor is that: “in social science, everything is somewhat correlated with everything (“crud factor”), so whether Ho is refuted depends solely on statistical power” (Meehl P. 1990b). The crud factor does not deal with “some source of statistical error” (Meehl P. 1990a), but when we speak about the crud factor “we are taking about real differences, real correlations, real trends and patterns for which there is, of course, some true but complicated multivariate casual theory”. Meehl (1990a) proceeds: “I am not suggesting that these correlations are fundamentally unexplainable. They would be completely explained if we had the knowledge of Omniscient Jones, which we don’t. The point is that we are in the weak situation of corroborating our particular substantive theory by showing that X and Y are “related in a non-chance manner,” up a range of admissible values that would be counted as corroborative”.

This problem cannot be resolved by statistics, but only inside an epistemological reflection (Meehl P. 1997). From this reflection, Meehl (1997) suggests “a corroboration index C*”. On the crud factor see also Epis L. (2011/2015).

The actual research, according to Meehl (1990a; 1990b; 1997), presents a weak use of significance testing. “What make this use weak, again, has nothing to do with the ratio a:b, but involves the epistemic relation between the inference H*: d > 0 and the alleged consequent confirmation of T” (Meehl P. 1997).

The risk is: when the Ho is refuted “gives powerful support to a weak theory” (Meehl P. 1997).

In other words, whereas we can decrease the problem of inadequate statistical power; at the present time it is not possible resolve completely the problem of the crud factor, unless we do not increase an epistemic and logic reflection as, also, Epis L. (2011/2015) strongly suggested.

For these reasons, further research should be done to verify possible positive outcomes.

 

[1] An evidence of how very few people (nowadays) are able to understand the logical and epistemological mistakes inside the Psychological Research and Paradigm. It shows, also, how Academia, instead of keeping a critical thinking, tends to “wear” and to “defend” the easier common “group’s thinking”. The facts happened in 2006.

[2] Pro-active aggressive children “evaluated verbally and physically aggressive acts in significantly more positive ways than did non-pro-active aggressive children”; and that pro-active aggressive “children are less likely to endorse relationship-enhancing goals during social interaction”.

[3] The rejection and social isolation is a form of aggression, where the aggression from a physical domain is applied indirectly in a social domain (Vaillancourt T. 2005).

[4] The level of significance a=0.05 is considered the more appropriate by the majority of the literature:  Lipsey M.W. (1990); Neuman W.L. and Wielgand B. (2000); Ronald J.H., Douglas G. H. and Regoli R.H. (1983). The latter suggests: an a=0.05 for samples which range from 30 to 100; and an a=0.01 for both samples that are higher then 100 and unavoidable small samples (lower then 30).

[5] The validity of the cues used in the pictures will be based on the studies of Eibl-Eibelfeldt (1993). The reliability of these pictures will be done with two validation studies: a test retest; and a split half. The customary research reliability coefficient of correlation (alpha) of 0.80 (Hagan F. E. 2005) will be substitute with an alpha of 0.90 (suggested by Meehl 1990a).

[6] Nevertheless, it is possible to develop additional studies for considering: the theory of attention “bottleneck” of Broadbent (1958); the theory of “the different allocation of the limited attentive resources” proposed by Kahneman (1973). In the same way, extra studies could be done to analyze the relation between perception and aggression. Exempli gratia, the different theories of perception (the theory of the constructive perception of Bruner and Gregory and Rock; the theory of direct perception supported by Gibson (Sternberg R. J. 2000); etc…) could be tested. This is as in “sciences” is better always verifying … and re-verifying  … everything. Nothing should be given for definitive!

[7] The ten obfuscating factors are: loose derivation chain; problematic auxiliary theories; problematic ceteris paribus clause; experimenter error; inadequate statistical power; crud factor; pilot studies; selective editorial bias; detached validation claim for psychometric instruments.