Tutti gli articoli di moretti

Vincenzo Moretti, founder #lavorobenfatto, sociologo e narratore.

Il leader è nudo?

Alcune riflessioni bollenti dopo una notte angosciante – esaltante nel corso di un mattino non ancora sereno in un paese sulla lama di un coltello.

1. Se anche in Senato l’Unione ha potuto conquistare, seppure per un soffio, la maggioranza, lo si deve non solo al voto degli italiani all’estero, ma anche al voto degli elettori del Sud.
Diversamente da quello del Centro, dove decenni di buon governo rappresentano, tra alti e bassi, un dato consolidato di riferimento, nel Sud si tratta di un esito niente affatto scontato, perché se è vero che Berlusconi si è particolarmente distinto per la propria incapacità (non volontà) di affrontare seriamente almeno alcuni dei problemi più importanti di questa parte del Paese, è altrettanto vero che da molto tempo la questione meridionale non c’è più. Dissolta più che risolta. Colpevolmente lasciata cadere piuttosto che abbandonata.
Le ragioni? Tante e naturalmente non tutte fuori dal Sud.
Ad esempio la classe dirigente meridionale non si pensa abbastanza in quanto tale e non dimostra una sufficiente capacità di innovazione sul terreno delle cose da fare e delle modalità con le quali farle, come vedremo anche più avanti; le donne e gli uomini del Sud fanno fatica ad assumere fino in fondo i doveri e i diritti della cittadinanza, finiscono troppo spesso col delegare, si comportano troppo spesso come sudditi invece che come cittadini.
Ciò detto, resta il fatto che le responsabilità delle classi dirigenti nazionali sono grandi.
Riuscirà il governo Prodi a ridare una dimensione politica alla questione meridionale e dunque a ridare un’identità al nostro Paese? Sta qui a nostro avviso uno snodo importante per il nostro futuro. Sicuramente più di un ulteriore dibattito su come si dovrà chiamare il nuovo contenitore partito del centro sinistra.
Da queste parti, continuiamo a ritenere che la Cosa sia più importante del Nome della Cosa. Che i contenuti siano più importanti dei contenitori. Che i programmi di governo e la coerenza con la quale si portano avanti siano, per tutti, il vero banco di prova.

2. Abruzzo 53.2; Basilicata 60.4; Calabria 56.8; Campania 49.6; Molise 50.5; Puglia 47.9; Sardegna 50.9; Sicilia 40.5: sono i dati relativi alle percentuali conseguite dall’Unione nelle regioni meridionali.
Spicca, in negativo, il dato della Campania, terz’ultima. (per ragioni diverse, i dati della Puglia e della Sicilia erano in fondo prevedibili: la particolare forza del blocco moderato e le note commistioni in Sicilia, il valore aggiunto portato da Vendola e l’alto tasso di astensionismo nelle recenti elezioni regionali in Puglia, ecc).
In Campania, neanche un anno dopo le elezioni regionali, va male nonostante Bassolino, De Mita, Mancino, ecc. Ci sarà un giudizio degli elettori sulla capacità e sulle modalità di governo a livello regionale? Sui criteri di formazione delle liste? Sui livelli di civiltà e di sicurezza delle nostre vite e delle nostre città? Ci sarà qualche riflessione da fare anche in riferimento alle prossime elezioni al comune di Napoli?

3. Abruzzo 18,4; Basilicata 19,9; Calabria 14,4; Campania 14,1; Puglia 15,6; Sardegna 17,2; Sicilia 11,4: questi sono invece i risultati conseguiti dai DS nel Sud (in Molise è stata presentata la lista dell’Ulivo anche alla Camera).
Qui l’urgenza di affrontare la questione Campania, dopo 15 anni di governo, appare ancora più evidente. Per quanto ci riguarda continuiamo a ritenere che molte mani e molte teste siano meglio di una. Che occorre privilegiare le capacità e le competenze piuttosto che le appartenenze. Che una classe dirigente sia meglio di un leader, per quanto autorevole possa essere.
Si può avviare finalmente una riflessione seria intorno a questo punto?

Il leader è nudo?

Alcune riflessioni bollenti dopo una notte angosciante – esaltante nel corso di un mattino non ancora sereno in un paese sulla lama di un coltello.

1. Se anche in Senato l’Unione ha potuto conquistare, seppure per un soffio, la maggioranza, lo si deve non solo al voto degli italiani all’estero, ma anche al voto degli elettori del Sud.
Diversamente da quello del Centro, dove decenni di buon governo rappresentano, tra alti e bassi, un dato consolidato di riferimento, nel Sud si tratta di un esito niente affatto scontato, perché se è vero che Berlusconi si è particolarmente distinto per la propria incapacità (non volontà) di affrontare seriamente almeno alcuni dei problemi più importanti di questa parte del Paese, è altrettanto vero che da molto tempo la questione meridionale non c’è più. Dissolta più che risolta. Colpevolmente lasciata cadere piuttosto che abbandonata.
Le ragioni? Tante e naturalmente non tutte fuori dal Sud.
Ad esempio la classe dirigente meridionale non si pensa abbastanza in quanto tale e non dimostra una sufficiente capacità di innovazione sul terreno delle cose da fare e delle modalità con le quali farle, come vedremo anche più avanti; le donne e gli uomini del Sud fanno fatica ad assumere fino in fondo i doveri e i diritti della cittadinanza, finiscono troppo spesso col delegare, si comportano troppo spesso come sudditi invece che come cittadini.
Ciò detto, resta il fatto che le responsabilità delle classi dirigenti nazionali sono grandi.
Riuscirà il governo Prodi a ridare una dimensione politica alla questione meridionale e dunque a ridare un’identità al nostro Paese? Sta qui a nostro avviso uno snodo importante per il nostro futuro. Sicuramente più di un ulteriore dibattito su come si dovrà chiamare il nuovo contenitore partito del centro sinistra.
Da queste parti, continuiamo a ritenere che la Cosa sia più importante del Nome della Cosa. Che i contenuti siano più importanti dei contenitori. Che i programmi di governo e la coerenza con la quale si portano avanti siano, per tutti, il vero banco di prova.

2. Abruzzo 53.2; Basilicata 60.4; Calabria 56.8; Campania 49.6; Molise 50.5; Puglia 47.9; Sardegna 50.9; Sicilia 40.5: sono i dati relativi alle percentuali conseguite dall’Unione nelle regioni meridionali.
Spicca, in negativo, il dato della Campania, terz’ultima. (per ragioni diverse, i dati della Puglia e della Sicilia erano in fondo prevedibili: la particolare forza del blocco moderato e le note commistioni in Sicilia, il valore aggiunto portato da Vendola e l’alto tasso di astensionismo nelle recenti elezioni regionali in Puglia, ecc).
In Campania, neanche un anno dopo le elezioni regionali, va male nonostante Bassolino, De Mita, Mancino, ecc. Ci sarà un giudizio degli elettori sulla capacità e sulle modalità di governo a livello regionale? Sui criteri di formazione delle liste? Sui livelli di civiltà e di sicurezza delle nostre vite e delle nostre città? Ci sarà qualche riflessione da fare anche in riferimento alle prossime elezioni al comune di Napoli?

3. Abruzzo 18,4; Basilicata 19,9; Calabria 14,4; Campania 14,1; Puglia 15,6; Sardegna 17,2; Sicilia 11,4: questi sono invece i risultati conseguiti dai DS nel Sud (in Molise è stata presentata la lista dell’Ulivo anche alla Camera).
Qui l’urgenza di affrontare la questione Campania, dopo 15 anni di governo, appare ancora più evidente. Per quanto ci riguarda continuiamo a ritenere che molte mani e molte teste siano meglio di una. Che occorre privilegiare le capacità e le competenze piuttosto che le appartenenze. Che una classe dirigente sia meglio di un leader, per quanto autorevole possa essere.
Si può avviare finalmente una riflessione seria intorno a questo punto?

L’immondizia siamo noi?

L’immagine che vedete qui a fianco è stata scattata sabato 1 aprile 2006 a via Nicotera, a Napoli. E forse merita qualche commento. Così come il titolo di questo post, solo in parte provocatorio.
Naturalmente non è la peggiore immagine possibile di Napoli. Nè segnala il peggiore dei suoi mali. Del resto, in un mondo nel quale ogni ora, tutte le ore di tutti i giorni, muoiono 1200 bambini, la maggior parte per la fame e la sete, senza che neanche facciamo finta di accorgercene, si fa fatica a pensare a qualcosa come al peggio in assoluto. A napoli come in ogni altro posto del mondo.
Ma queste poche righe non si prefiggono di salvare il mondo, ma soltanto di condividere qualche considerazione.
A Napoli ieri la giornata era molto bella. Napoli è bella. La primavera a Napoli è bella. Ma purtroppo a Napoli la vita è sempre più impossibile.
Se c’è qualcuno che sente il bisogno di appiccicare il cartello ritratto nella foto è perché non ne può più di vedere suoi “simili” che portano per strada l’immondizia fuori dalle fasce orarie consentite.
Il fatto è che non sembra esserci rimedio.
Non sono trascorsi 15 minuti che siamo su via Caracciolo. Il mare, il Vesuvio, Capri, un incanto.
Abbandonati sul muretto tre contenitori sporchi di pizza e due bottiglie di birra vuote. A meno di tre o quattro metri c’è un contenitore per i rifiuti. Servirebbe scrivere “l’immondizia come voi sta a tre metri”?
Tra poche settimane si voterà per il rinnovo del consiglio comunale.
Sulle carenze, i limiti, le omissioni di chi governa e di chi si oppone in questa città ci sarebbe davvero tanto da dire. Ma di questo potete leggere sulle cronache de la repubblica, il corriere del mezzogiorno, il mattino, ecc.
Qui la questione è un’altra. Fino a quando saremo immondizia e non cittadini potremo davvero sperare di avere una classe dirigente seria, rigorosa, capace, onesta?

L’immondizia siamo noi?

L’immagine che vedete qui a fianco è stata scattata sabato 1 aprile 2006 a via Nicotera, a Napoli. E forse merita qualche commento. Così come il titolo di questo post, solo in parte provocatorio.
Naturalmente non è la peggiore immagine possibile di Napoli. Nè segnala il peggiore dei suoi mali. Del resto, in un mondo nel quale ogni ora, tutte le ore di tutti i giorni, muoiono 1200 bambini, la maggior parte per la fame e la sete, senza che neanche facciamo finta di accorgercene, si fa fatica a pensare a qualcosa come al peggio in assoluto. A napoli come in ogni altro posto del mondo.
Ma queste poche righe non si prefiggono di salvare il mondo, ma soltanto di condividere qualche considerazione.
A Napoli ieri la giornata era molto bella. Napoli è bella. La primavera a Napoli è bella. Ma purtroppo a Napoli la vita è sempre più impossibile.
Se c’è qualcuno che sente il bisogno di appiccicare il cartello ritratto nella foto è perché non ne può più di vedere suoi “simili” che portano per strada l’immondizia fuori dalle fasce orarie consentite.
Il fatto è che non sembra esserci rimedio.
Non sono trascorsi 15 minuti che siamo su via Caracciolo. Il mare, il Vesuvio, Capri, un incanto.
Abbandonati sul muretto tre contenitori sporchi di pizza e due bottiglie di birra vuote. A meno di tre o quattro metri c’è un contenitore per i rifiuti. Servirebbe scrivere “l’immondizia come voi sta a tre metri”?
Tra poche settimane si voterà per il rinnovo del consiglio comunale.
Sulle carenze, i limiti, le omissioni di chi governa e di chi si oppone in questa città ci sarebbe davvero tanto da dire. Ma di questo potete leggere sulle cronache de la repubblica, il corriere del mezzogiorno, il mattino, ecc.
Qui la questione è un’altra. Fino a quando saremo immondizia e non cittadini potremo davvero sperare di avere una classe dirigente seria, rigorosa, capace, onesta?

La critica inconsapevole dei marxisti

Si può ritenere Karl Marx “un autore misconosciuto, vittima di una profonda e reiterata incomprensione”?
A leggere l’introduzione di Marcello Musto, curatore di questo interessante, rigoroso, sorprendente, volume, sì.
A suo avviso Marx è stato tale “nel periodo durante il quale il marxismo era politicamente e culturalmente egemone, tale rimane ancora oggi”, e le cause principali di tale paradosso sono “il tortuoso processo della diffusione degli scritti di Marx e l’assenza di una loro edizione integrale, insieme con la primaria incompiutezza, il lavoro scellerato degli epigoni, le letture tendenziose e le più numerose non letture”.

La questione è di quelle destinate a lasciare il segno. Nella storia e nel futuro del pensiero socialista. Nella conoscenza di questo straordinario filosofo, economista, storico, saggista, editorialista. Nella testa e nel cuore di chi legge il libro.

Non si può negare un certo sconcerto di fronte ad affermazioni, convincimenti, demarcazioni, del giovane e bravissimo curatore, che in maniera tanto netta evidenzia gli abusi e i sorpresi perpetrati ai danni del grande vecchio di Treviri; quando si vede minacciato l’impegno e la passione con il quale ci si è misurati con il suo pensiero; quando ci si ritrova a pensare che tutti quei libri così gelosamente custoditi, salvati dal riflusso, dal reaganismo, dal craxismo, dal berlusconismo, dalla critica roditrice dei figli (che sa essere più feroce di quella dei topi), sono in buona sostanza dei falsi.

Eppure mano a mano che si procede nella lettura, lo sconcerto lascia il posto alla scoperta, alla voglia di ricominciare, alla speranza che quello che anche i più ottimisti hanno ritenuto un pensiero straordinariamente nobile ma altrettanto datato e male applicato, possa tornare a essere attuale, a essere utile per l’oggi e per il domani.

Sta qui a nostro avviso il valore straordinario di questo volume, che si articola in quattro sezioni che raccolgono i saggi presentati nel corso di una conferenza internazionale svoltasi a Napoli nella primavera del 2004.
La prima sezione, per chi scrive quella più appassionante, è dedicata alla nuova edizione storico – critica della Marx Engels Gesamtausgabe (MEGA 2, 114 i volumi previsti, quasi la metà quelli già pronti, diretta dalla Internazionale Marx – Engels – Stiftung, pubblicata dalla Berlin -Brandenburgische Akademie der Wissenschaften), con interventi e saggi, tra gli altri, di Manfred Neuhaus, Gerald Hubmann, Izumi Omura.
La seconda sezione si sviluppa intorno al pensiero del Marx giovane, dalla dissertazione di laurea alla critica della politica, e propone tra gli altri interventi di Giuseppe Cacciatore, Marcello Musto, Stathis Kouvélakis.
La terza sezione analizza quella che molti hanno considerato l’opera più importante di Marx, Il Capitale, con interventi tra gli altri di Roberto Finelli, Geert Reuten, Christopher J. Arthur.
La quarta sezione propone infine le ragioni e i caratteri dell’attualità del pensiero marxiano, e presenta tra gli altri contributi di André Tosel, Domenico Losurdo, Alex Callinicos.

La lettura, per quanto impegnativa, risulta sempre non solo interessante ma anche scorrevole e ricca di sorprese. Sapete ad esempio che attraverso la banca dati elettronica dell’Università Tohoku, è possibile visionare le prime edizioni di alcune delle più importanti opere di Marx con note e dediche scritte a mano dall’autore? O che Marx e Engels sono stati per lungo tempo editorialisti del New York Tribune, al tempo il più importante quotidiano del mondo?

“Sulle tracce di un fantasma” è insomma un libro da non perdere, soprattutto per chi ritiene che la possibilità di “un nuovo accesso post-ideologico all’opera e al pensiero di Marx”, e dunque di una sua nuova modernità e attualità, possa mostrarsi ancora oggi una prospettiva utile, realistica, credibile, concreta nelle quotidiane fatiche per la conquista di un mondo almeno un po’ più eguale e meno ingiusto.

Sulle tracce di un fantasma
L’opera di Karl Marx tra filologia e filosofia
A cura di Marcello Musto
Manifestolibri
Pagg. 392
Euro 30,00

Risorse per il sensemaking organizzativo

Inviate i vostri commenti alle citazioni che vi sono state assegnate specificando nome cognome e numeri relativi alle citazioni commentate.

Per genio e per caso, again

Ricordate?
Era più o meno metà ottobre dell’anno di grazia 2005 quando vi abbiamo parlato della fondamentale scoperta delle nuove funzioni del trascrittoma e della capacità possibilità dell’RNA di interagire e modificare il DNA.
Ve ne abbiamo parlato da un particolare punto di vista, quello messo in luce da Robert K. Merton con il suo concetto di serendipity, che si riferisce all’esperienza che consiste nell’osservare un dato imprevisto, anomalo e strategico che fornisce occasione allo sviluppo di una nuova teoria o all’ampliamento di una teoria già esistente (secondo tale teoria, il caso favorisce particolarmente le menti preparate che operano in microambienti che agevolano le interazioni socio cognitive impreviste).

Vai all’articolo completo su La Stampa Web

Intervista a Carninci

Un esempio concreto di ricerca realizzata in ambiente serendipitoso nella conversazione – intervista con Piero Carninci, leader del consorzio di scienziati Fantom 3 che ha scoperto le nuove funzioni del trascrittoma (RNA), pubblicata su Technology Review Italia.

By a stroke of genius and by change

In the last few months we have found out that we are facing a new epoch-making change. The rule called, “a gene, a protein”- that is all DNA information transferred in one direction only to molecoles which transcribe and translate it as amino acids – has now been questioned once and for all. Transcriptome (RNA) has not only the function of transporting and translating information but also the function of coordinating the complex work to make those thousands and thousands of components active in a cell, helping regulate DNA expression.
These secrets of RNA have been discovered by an international association made up of 190 scientists, called Fantom Consortium 3, whose leader is from Italy, Piero Carninci. We asked him to continue talking about this extraordinary discovery and the new horizons set.
We asked him to do so but from a particular point of view, that perspective related to the model called serendipity which, as written by Robet Merton, “refers to the quite common experience of observing an unpredicted, anomalous and strategic datum, which paves the way to the development of a new theory or improves an existing one” (Bologna, 2002).
To us, the point of view is important for at least three reasons: because it adds another element to a story, that story related to the discovery occurred by a stroke of genius or by chance, which refers to numerous and well-known people -including Francis H. C. Crick and James D. Watson who, as they themselves said, would have never discovered the double helix model related to DNA molecular structure without the help of Jerry Donohue, a young U S crystallographer.
Because it exceeds all usual logical terms related to scientific discoveries, it sees the study developed by a researcher as it really is and highlights what has been done to reach that discovery, as said Richard P. Feynman during his opening speech for the awarding of the Nobel Prize (Science, n°13, 12th August 1966, pgs. 699-708), ” when we write an article published in a scientific journal we usually refine our work as much as possible, hiding all traces, not making things complicated or describing as wrong the first idea occurred to us and so on [… so we end up losing our point of view …], what has been really done to reach that aim”.
Because it helps understand the reasons why in an atmosphere full of socio-cognitive interactions it is more likely that chance will pave the way to that particular discovery.
So, due to the collaboration with Mr Carninci, here we are summarising the new frontier of science related to RNA in the light of the definition of unpredicted, anomalous and strategic event given by the well-known U S sociologist.

Unpredicted event : Merton says that “a study directed to verify an hypothesis paves the way to a chance by-product, to a disregarded observation which is important related to theories which weren’t in doubt at the beginning of the process.
Was this the case occurred to you?

Yes, it was. We started from the idea that the genome produced mRNA (messenger RNA) which in turn produced proteins, that is what is stated by the central dogma related to molecular biology. At that time, late 1990s, it was understood that there were 70 to 100 thousand different genes which code themselves as proteins and these estimates derived from quite complex measurements of the number of RNAs inside a cell.
Our data of cDNA (complementary DNA), that is DNA copied by mRNA, gave consistent results with existing theories which in fact referred to 70-100 thousand but they were in contrast to the number of genes, around 22000, found in the human or murine ( of mice) genome. At the same time we began the analysis of our cDNAs and found out that half of them did not code as any proteins. However it took us a very long time to understand that these cDNAs were not fragments of a genome, cloned by mistake, but they were, in fact, a lot of different RNAs which did not code as proteins.

Anomalous: Meron writes that “the observation is anomalous, surprising because it seems inconsistent with the prevailing theory or with facts already stated. Either way the seemingly inconsistency arouses curiosity, so a researcher is given the opportunity of making sense of that new theory, and he or she puts it in a wider horizon in knowledge”.
What was your anomalous thing, your surprise?

As already suggested, from the analysis of these cDNAs we found these RNAs which did not have anything to do with the “central dogma”, in other words they did not code as proteins. At first we did not know what to do with these objects which seemed undesired and useless. I also had some problems with colleagues who thought that those RNAs were an artificial version of my experiments before taking into consideration something outside the dogma. At a meeting in August 2000 one of them maintained that those RNAs were only junk.
It is meaningful how long it takes you before observations which now seem logical can change the old dogma and how we as scientists are also not so much flexible, in one word it taught us a lot.

You found yourself in the same situation described by Herbert Butterfield. To him, “the most difficult form of mental activities to induce is the art of using the same handful of data as you had before, and placing them in a new system of reciprocical relations by giving them a different basic structure, and that means thinking it over again” (The Origins of Modern Science, 1300-1800, London, G. Bells & Sons, 1949, p.1).

Exactly. Fortunately after a while we started to think about what these RNAs could do and if their presence could help understand some regulating processes related to genes or differential splicing (splicing refers to a process which cuts and put together eukaryotic mRNAs into shorter pieces, which are then utilised by the cell in that form in order to produce proteins. We also noticed that these RNAs are expressed in various tissues, have different regulations and we, finally, decided to see their function, but this is the part already published in Science of September 2.

Strategic: Merton remembers that “when saying that an unpredicted event must be strategic, that is it must have the sort of implications which affect the general theory, we are obviously referring more to what the observer adds to the datum than to the datum itself. It goes without saying that the datum wants an observer to be sensitive from a theoretical point of view, in other words he or she must be capable of finding a rule from single things”.
What can be developed from your discovery?

The basic discovery is that there is a new world made up of RNAs which operate regulating various activities in a cell. Fortunately, working with a genome or transcriptome, all data are filed into public databases, for this reason every lab can improve its research using the Internet, which means universally.
The main observation is that the transcription and production or the presence of certain RNAs operate regulating other types of RNAs. Once understood the detail and specific features, these RNAs may be used as a means to control the expression of other RNAs. If, for instance, one of these RNAs to control were responsible for a desease – e.g. cancer, the possibility of regulating its expression procuces positive results. We know, for example, that drugs modulating gene activities or their products – that is proteins – create side effects and often toxicity. On the contrary everyone of us has RNA, for this reason finding RNA effectors can have huge advantages.

As we will partially see, we will now leave Merton and go to the point called “brain drain”, a situation which affects us all more and more when we meet people like you, who can demonstrate his value only leaving Italy.
It’s been written a lot about your “running away” to Japan in the last few weeks after publishing your discovery in Science. But is it really so? or did you, too, like Troisi (a famous Italian actor-director) – who in the movie called “Ricomincio da tre” must accept the idea of always being an immigrant, as people use to say, and not just a person who is travelling – leave Italy by choice and join the “brain drain” sort of club, not wanting to?

At first I would suggest everyone going abroad for a while, whatever can be his or her field or subject, because learning how to adapt yourselves to different cultures and languages gives you a lot of advantages apart from being an important way to improve yourselves from a personal and cultural point of view. Then I would like to add that unfortunately I did not have the chance to work as a researcher in Italy, even trying to do so for several years, either at a University or for the biotechnological industry.
I had a lot from Italy in terms of education and first work experiences. However just when I could have given something back to my country, there were no organizations collaborating in a productive way, at least in Trieste.
To be sincere before leaving, the idea of going to Japan seemed to me a very complicated and difficult thing. However once landed at Tokyo airport, things immediately changed for the best.
What at once stroke me was the end of the frustration I felt in Italy where questions I usually put to myself were: Will I be paid next salary? Am I supposed to change my job? If I don’t buy meat and only eat spaghetti will I have the money to buy petrol I need to go to the lab?
When in Tokyo I suddenly asked myself how to understand genome function or how to develop new types of technology to analyse many genes in parallel.

Something very different from Italy!

Of course. The fact is that in Japan, like in the USA, research organizations are well-organized (as Merton suggests, not in the interview). To research means to invest in knowledge. Working as a researcher is a real job, meaning that a researcher is not seen as a parasite but one that must produce knowledge (and licences) for the developing of the country.
So it is easy to understand that life in Japan is paradoxically easier than in Italy.

Will you ever get back to Italy?

A lot of people have already asked me this question. I don’t know. You never know! I can say that I dream of a situation where I can live between two different worlds and let them interact, that I’m still collaborating with great pleasure with Italian associations and researchers. But I can’t give up living in a country like Japan and in a city like Tokyo. I am probably too lazy to think of leaving everything here in Japan, get back to Italy and struggle in a University, only to have opportunities which are far smaller than here in Japan.

Per genio e per caso

Abbiamo scoperto da pochi mesi di essere fronte a un nuovo cambiamento epocale. La regola “un gene, una proteina”, secondo la quale il flusso di informazione posseduto dal DNA si trasferisce in maniera unidirezionale alle molecole che lo trascrivono e lo traducono nel linguaggio degli amminoacidi, è messa definitivamente in discussione. Il “trascrittoma” (RNA) ha infatti non solo la funzione di trasportare e tradurre informazioni ma anche quella di coordinare il complesso lavoro teso a rendere integrate ed efficienti le migliaia e migliaia di componenti attive della cellula, di contribuire a regolare l’espressione del DNA.
La scoperta dei segreti dell’RNA si deve al lavoro di un consorzio internazionale formato da 190 scienziati, Fantom 3, che ha come leader un italiano, Piero Carninci. Ed è proprio a lui che abbiamo chiesto di tornare a ragionare di questa straordinaria scoperta e dei nuovi orizzonti che essa determina.
Gli abbiamo chiesto però di farlo da una prospettiva particolare, quella data dal modello di serendipity che, come ha scritto Robert Merton, ”si riferisce all’esperienza, abbastanza comune, che consiste nell’osservare un dato imprevisto, anomalo, strategico, che fornisce occasione allo sviluppo di una nuova teoria o all’ampliamento di una teoria già esistente” (Bologna, 2002).
E’ una prospettiva a nostro avviso interessante per almeno tre ragioni:
perché aggiunge un ulteriore tassello a una storia, quella delle scoperte fatte per genio e per caso, che ha avuto protagonisti numerosi e illustri (ivi compresi Francis H. C. Crick e James D. Watson che, come loro stessi hanno raccontato, senza l’aiuto di Jerry Donohue, un giovane cristallografo statunitense, forse non avrebbero mai scoperto il modello a doppia elica della struttura molecolare del DNA);
perché permette di andare al di là dei termini puramente logici con i quali vengono presentate le teorie scientifiche, di ricostruire il corso dell’indagine così come è stata svolta dal ricercatore, di mettere in evidenza ciò che effettivamente è stato fatto per arrivare a quella scoperta (come ebbe a dire Richard P. Feynman nel corso della sua prolusione in occasione del conferimento del Premio Nobel (Science, n° 153, 12 agosto 1966, pp. 699 – 708) “abbiamo l’abitudine, quando scriviamo gli articoli pubblicati sulle riviste scientifiche, di rendere il lavoro quanto pi� rifinito possibile, di nascondere tutte le tracce, di non prenderla per i vicoli ciechi o di descrivere come la prima idea che si era avuta era sbagliata, e così via, [… cosicché finiamo col perdere di vista …] quello che si � fatto veramente per arrivare a quel lavoro);
perché aiuta a comprendere le ragioni per le quali in ambienti ricchi di interazioni socio – cognitive è più probabile che il caso favorisca determinate scoperte.
Con la “complicità” di Carninci eccoci dunque a ripercorrere le tappe della nuova frontiera dell’RNA alla luce della definizione che il grande sociologo statunitense ha dato di “imprevisto”, “anomalo” e “strategico”.

Imprevisto: Merton afferma che “una ricerca diretta alla verifica di una ipotesi dà luogo ad un sottoprodotto fortuito, ad una osservazione inattesa che ha incidenza rispetto a teorie che, all’inizio della ricerca, non erano in questione”. E’ accaduto qualcosa di simile nel corso del vostro lavoro?

Sì. Eravamo partiti dall’idea che il genoma producesse mRNA (RNA messaggero, N.d.R.) che a loro volta producevano proteine, che corrisponde al dogma centrale della biologia molecolare. Al tempo, alla fine degli anni ’90, si pensava anche che ci fossero 70-100 mila geni differenti che codificano per proteine, e queste stime derivavano da misurazioni piuttosto complesse sul numero degli RNA in una cellula.
I nostri dati sui cDNA (DNA complementare, cioé DNA copiato da un mRNA), ha dato risultati coerenti con le teorie precedenti, che parlavano per l’appunto di 70-100 mila geni, ma erano in contrasto col numero di geni trovati, 22 mila circa, nel genoma umano o murino (il banale topo domestico, N.d.R.). Allo stesso tempo, abbiamo iniziato l’analisi dei nostri cDNA e abbiamo scoperto che una buona metà non codificava per alcuna proteina, ma ci è voluto parecchio tempo per capire che questi cDNA non erano frammenti di genoma, clonati per errore, ma in realtà erano un sacco di RNA diversi che non codificano per proteine.

Anomalo: Merton scrive che “l’osservazione è anomala, sorprendente, perché sembra incongruente rispetto alla teoria prevalente, o rispetto a fatti già stabiliti. In ambedue i casi, l’apparente incongruenza provoca curiosità; essa stimola il ricercatore a trovare un senso al nuovo dato, a inquadrarlo in un più ampio orizzonte di conoscenze”.
Qual è stata, nel vostro caso, l’anomalia, la sorpresa?

Come in parte ho già detto, l’aver trovato dall’analisi dei nostri cDNA, questi RNA che non avevano nulla a che fare col “dogma centrale”, ovvero non codificavano per alcuna proteina. All’inizio, non sapevamo che fare con questi oggetti, che sembravano cose indesiderate ed inutili. Ho avuto abbastanza difficoltà anche con certi colleghi, che ritenevano questi RNA un artefatto dei miei esperimenti prima di considerare qualcosa al di fuori del dogma. Uno di loro, ad un meeting nell’agosto del 2000, ha dichiarato che questi cDNA erano semplicemente “junk” (spazzatura, N.d.R.).
E’ significativo quanto tempo passa prima che delle osservazioni, che ora sembrano logiche, possano cambiare il vecchio dogma e come anche noi scienziati siamo così poco flessibili: un grande insegnamento.

Ti sei trovato nella situazione descritta da Herbert Butterfield, secondo il quale “di tutte le forme di attività mentale la più difficile da indurre […] è l’arte di adoperare la stessa manciata di dati di prima, ma situarli in un nuovo sistema di relazioni reciproche fornendo loro una diversa struttura portante; il che significa praticamente ripensarci su” (The Origins of Moderne Sciences, 1300 -1800, London, G. Bell & Sons, 1949, p. 1).

Esattamente. Per fortuna a un certo punto abbiamo iniziato a pensare a cosa potessero fare questi RNA, e se la loro presenza potesse aiutare ad interpretate alcuni meccanismi di regolazione del gene, o di regolazione dello splicing differenziale (lo splicing è il meccanismo che taglia e ricuce gli mRNA eucariotici in pezzetti più corti, che sono poi utilizzati dalla cellula in questa forma per la produzione di proteine). Abbiamo anche visto che questi RNA sono espressi in vari tessuti, hanno diverse regolazioni, ed alla fine abbiamo deciso di vedere la loro funzione, ma questa è la parte pubblicata su Science del 2 settembre.

Strategico: Merton ricorda che “affermando che il fatto imprevisto deve essere strategico, cioè deve avere implicazioni che incidono sulla teoria generalizzata, ci riferiamo, naturalmente, più che al dato stesso, a ciò che l’osservatore aggiunge al dato. Com’è ovvio, il dato richiede un osservatore che sia sensibilizzato teoricamente, capace di scoprire l’universale nel particolare”.
Quali possono essere gli sviluppi della vostra scoperta?

La scoperta di base è che c’è un mondo nuovo costituito da RNA che funzionano regolando varie attività nella cellula.
Per fortuna, lavorando col genoma e col trascrittoma, tutti i dati vengono depositati nei database pubblici, per cui gli sviluppi possono essere portati avanti da qualsiasi laboratorio che sia in possesso di un collegamento internet, ovvero, universalmente.
L’osservazione principale è che la trascrizione e produzione o la presenza di certi RNA ha la funzione di regolare altre specie di RNA. Una volta capiti i dettagli e la specificità, questi RNA potranno essere usati come strumenti per controllare l’espressione di altri RNA. Se, ad esempio, uno degli RNA da controllare fosse responsabile di una malattia (ad esempio il cancro), la possibilità di regolarne l’espressione produce conseguenze positive. Sappiamo ad esempio che i farmaci che modulano l’attività di geni o dei loro prodotti (proteine) presentano effetti collaterali e spesso tossicità; al contrario, tutti noi possediamo RNA, per cui scoprire gli RNA effettori può dare grossissimi vantaggi.

Lasciamoci, come vedremo solo in parte, alle spalle Merton e veniamo al tema “cervelli in fuga”, sempre di grande attualità quando si incontrano personaggi come te, che solo fuori dall’Italia riescono a dimostrare il proprio valore.
Si è scritto molto, nelle settimane successive alla pubblicazione su Science della vostra scoperta, della tua “fuga” in Giappone. Ma è davvero così? O anche tu come Troisi (che in “Ricomincio da tre” deve arrendersi al luogo comune che vuole che un napoletano non possa viaggiare ma soltanto emigrare) hai lasciato l’Italia per scelta e ti ritrovi iscritto tuo malgrado nel club dei “cervelli in fuga”?

Detto che personalmente raccomanderei a chiunque di andare all’estero per alcuni anni, qualunque sia il campo o la disciplina di suo interesse (imparare ad adattarsi a culture e lingue diverse dà grossissimi vantaggi oltre ad essere un fattore importante di arricchimento personale e culturale), aggiungo che purtroppo in Italia non ho avuto la possibilità di stabilirmi come ricercatore, pur avendoci provato per diversi anni, sia in campo universitario che nell’industria biotecnologica.
Dall’Italia ho avuto tantissimo, in termini di educazione e primi anni di esperienza lavorativa. Tuttavia, nel momento in cui avrei potuto restituire al mio paese qualcosa, non c’e stata nessuna struttura, almeno a Trieste, pronta ad una collaborazione produttiva.
Sinceramente, prima della partenza andare in Giappone mi sembrava una cosa estremamente complicata e difficile. Tuttavia, una volta atterrati all’aeroporto di Tokyo, le cose sono andate immediatamente per il meglio.
Quello che mi ha colpito da subito è la fine della frustrazione che avevo in Italia, dove le domande tipo che rivolgevo a me stesso erano: prenderò il prossimo stipendio? devo cambiare lavoro? se non compero la carne ma mangio solo spaghetti, riesco ad avere i soldi per fare benzina e andare in laboratorio?
A Tokio sono prontamente passato a domandarmi come capire la funzione del genoma o come sviluppare tecnologie che ti permettono l’analisi in parallelo di molti geni.

Una bella differenza.

Proprio così. Il fatto è che in Giappone, come negli Stati Uniti, le strutture di ricerca sono organizzate (ecco che ritorna Merton, N.d.R.), la ricerca è un investimento in conoscenza quella del ricercatore è una professione vera, nel senso che il ricercatore non è considerato un parassita ma uno che deve produrre conoscenza (e brevetti) per lo sviluppo del paese.
E’ facile capire come, con queste premesse, la vita in Giappone sia paradossalmente più facile che in Italia.

Tornerai?

In tanti me lo hanno chiesto. Non lo so, del futuro non c’è certezza. Posso dire che sogno una posizione in cui posso vivere tra due mondi diversi e farli interagire, che continuo a collaborare con molto piacere con istituti e ricercatori italiani, ma all’energia che mi dà il fatto di vivere in un paese come il Giappone e in una città come Tokyo non riesco a rinunciare. Probabilmente sono troppo pigro per pensare di lasciare tutto qui, rientrare in Italia e combattere, in qualche università, per avere opportunità molto al di sotto di quelle che ho qui.

Blog e senso critico

E’ di fine 2005 la notizia di una ricerca condotta all’Università della Tecnologia di Sidney dalla quale risulterebbe che l’utilizzo dei blog aiuta gli studenti a pensare e a scrivere con maggiore senso critico e che attraverso i blog anche gli studenti più ritrosi riescono a manifestare le proprie convinzioni, ad esprimersi e a partecipare attivamente ai vari dibattiti.

Ulteriori notizie sulla ricerca le potete trovare su ABC science online.

Senza Parole

L.F. è da qualche minuto in sala operatoria.
L’intervento alla parotide non è certo di quelli nei quali si rischia la vita, ma la tensione è tanta.
Più avanti scopriremo che la faccenda era decisamente meno banale di quanto non apparisse a prima vista, ma per ora bastano a nutrire la nostra inquietudine i tanti, quotidiani, esempi di malasanità che infestano questo nostro Paese.
Appena da qualche giorno Massa di Somma ha anche per noi un suo posto preciso nella geografia della regione, così come la clinica convenzionata Nostra Signora di Lourdes. E’ trascorsa già quasi un’ora da quando io e G.D.P. abbiamo cominciato a percorrere avanti e indietro lo spazio antistante l’entrata. Chiacchieriamo. Camminiamo. Consumiamo un improbabile caffé al bar poco distante. Ritorniamo dentro.
Un uomo sulla settantina è proprio lì sulla soglia. Si sposta un paio di metri di lato. Allunga la testa come a nasconderla dietro una delle colonne che reggono il porticato. Non abbastanza da non essere visto. Sputa per terra. Tutto prosegue come prima. Anzi no. Giunge una giovane donna, a vederla neanche trentanni, il grosso pancione che annuncia l’arrivo ormai prossimo di un bambino. Accende una sigaretta. La fuma avidamente. Accartoccia il pacchetto ormai vuoto tra le mani. Fa due passi. Lo butta per terra dietro una delle colonne.
Non ci sono parole.

Decisione

Vedi anche
CYERT – MARCH – SIMON

Concetti e parole chiave
Comportamentismo – Garbage can – Incrementalismo – Modello Partecipativo – Modello Politico burocratico – Razionalità limitata – Scelta razionale

Spiegazione
Una decisione può essere assunta in molti modi.
Può essere data dal progetto consapevole di un attore razionale, e in questo caso sarà stata presa sulla base del modello decisionale sinottico; può essere il risultato contingente di un processo condizionato dai limiti soggettivi e oggettivi della razionalità umana e ci si riferirà in questo caso al modello della razionalità limitata; può rappresentare l’esito di mediazioni e accomodamenti tra attori partigiani e dunque riferirsi al modello decisionale incrementale; può essere il prodotto casuale dell’incontro tra problemi, soluzioni, partecipanti e occasioni di scelta e in questo caso ci si riferirà al modello decisionale del garbage can. E poi ancora può essere presa sulla base di scelte classificabili nell’ambito del modello comportamentista, di quello politico – burocratico, di quello partecipativo.
Le differenze che caratterizzano i sette modelli possono riferirsi a seconda dei casi ai soggetti abilitati a decidere, ai criteri principali di scelta, al tipo di razionalità, alle condizioni nelle quali si decide, al significato attribuito alla decisione, al tipo di organizzazione, all’analogia organizzativa proposto, al livello di attuazione della decisione.
Dato questo sfondo, è utile trattare in maniera più specifica ciascun modello.
Scelta razionale
Gli assiomi fondamentali sui quali si regge il modello della decisione razionale sinottica, il cui campo di applicazione per eccellenza è dato dalla teoria della O.S.L., sono nella sostanza due:
il primo afferma che fini già prefissati possono essere raggiunti utilizzando in maniera ottimale i mezzi a disposizione (dato che decidere vuol dire risolvere un problema è fondamentale mettere chi decide in uno stato di informazione perfetta);
il secondo prescrive la necessità che a comandare sia uno solo (ci sia un decisore unitario) dato che l’unità di comando assicura piena coincidenza dell’interesse individuale e collettivo, unifica gli scopi e i criteri valutativi.
Nell’ambito di questo modello la razionalità è intesa come razionalità orientata allo scopo (razionalità sostanziale), le decisioni vengono assunte secondo tecniche di elaborazione organizzate per fasi cronologicamente distinte:
la prima prevede l’identificazione e la gerarchizzazione degli obiettivi e dei valori;
la seconda la padronanza di tutti i mezzi atti a raggiungerli;
la terza la valutazione delle conseguenze connesse a ciascuna alternativa;
l’ultima la scelta dell’opzione che massimizza il risultato raggiungibile.
Razionalità limitata
Il modello decisionale della razionalità limitata si deve a SIMON che sviluppa, intorno alla variabile “decisione”, la tesi, già introdotta da BARNARD, che assegna ai comportamenti delle persone e non ai fini e alle funzioni proprie delle strutture la chiave di lettura fondamentale per comprendere il funzionamento delle organizzazioni.
Gli aspetti fondamentali del modello simoniano possono essere così sintetizzati:
1. sono gli uomini che, attraverso le loro decisioni, determinano il funzionamento delle organizzazioni;
2. per definizione tali decisioni non sono possono essere assunte in condizione di certezza dato che i soggetti agiscono sulla base di criteri di razionalità limitata che non permettono di avere una visione completa tanto delle alternative disponibili quanto delle conseguenze non prevedibili delle loro azioni;
3. le persone adattono costantemente le informazioni e le conoscenze che utilizzano per raggiungere uno scopo, il proprio sistema cognitivo, alle condizioni mutevoli che caratterizzano l’ambiente naturale esterno e ciò fa sì che le decisioni e le scelte che esse assumono non producano, di norma, disastri, nonostante siano assunte sulla base di visioni estremamente semplificate della realtà;
4. è attraverso procedure che consentono di assorbire la sua incertezza e di fare scelte il più possibile programmate, che il soggetto inserito in un contesto organizzato (cioè un sistema di programmazione e di coordinamento delle azioni degli individui finalizzato a rappresentare un modello semplificato della realtà che aiuti a comprenderla e ad affrontare al meglio l’incertezza) è in grado di assumere decisioni, tanto di routine quanto critiche, sulla base di un criterio tendente non alla massimizzazione dei fini ma a un soddisfacimento medio degli obiettivi e la cui prima funzione è identificata nel proprio perpetuarsi;
5. per questa via, l’organizzazione riesce a mantenere una propria unitarietà di decisione, a trovare comunque un accordo su percezioni, valutazioni e scopi, a soddisfare i suoi bisogni, ad adattarsi al proprio ambiente, a sopravvivere.
Comportamentismo
CYERT e MARCH sviluppano ulteriormente il quadro concettuale proposto da SIMON nell’ambito delle grandi imprese multiprodotto che operano in condizioni di incertezza e in mercati imperfetti.
Contestata la tesi propria dell’economia classica secondo la quale gli obiettivi dell’impresa sono dati dagli obiettivi dell’imprenditore (o in ogni caso da obiettivi formatisi in maniera consensuale), essi propongono la loro concezione dell’impresa come coalizione (e subcoalizioni) di individui e definiscono la decisione in quanto esecuzione di una scelta operata, in termini di obiettivi, su una serie di alternative in base alle informazioni disponibili.
Nello schema concettuale di CYERT e MARCH un’organizzazione economica è un sistema razionale flessibile che apprende dalla sua esperienza, può assumere numerosi stati, è soggetta a spinte e urti esterni di disturbo che non possono essere controllati, è condizionata dall’azione di variabili interne che si modificano sulla base di determinate regole di decisione.
Tutto questo fa sì che lo stato del sistema cambi proprio sulla base del combinato disposto dei disturbi esterni e di variabili di decisioni interne (dato uno stato esistente, il nuovo stato si determina a partire da un disturbo esterno e da una decisione) e che le regole di decisione che conducono a uno stato preferito in un determinato momento abbiano maggiori probabilità di essere adottate in futuro.
Incrementalismo
Il modello incrementale si deve a C.E. Lindblom, che imputa al modello sinottico non solo il difetto di trascurare le facoltà cognitive degli attori ma anche quello di adattarsi molto poco al carattere pluralistico dei sistemi democratici.
L’esistenza di regole formali (separazione dei poteri, più livelli di governo, authority, ecc.) e di situazioni di fatto (interessi organizzati, parti sociali, ecc.) fanno sì che nei confini della politica gli attori siano soggetti non solo alla razionalità limitata ma anche e soprattutto a processi di frammentazione, dato che il campo delle decisioni risulta popolato da più protagonisti, tutti di parte, autonomi nelle scelte e nel giudizio, liberi da ogni tipo di coordinamento sovraordinato, ma legati reciprocamente rispetto alla scelta. L’idea è in questo caso che:
si decide assieme;
l’esito della decisione è direttamente connesso alle dinamiche che coinvolgono i diversi attori;
questi ultimi tendono ad adattare i fini ai mezzi disponibili dato che non sono in grado di scegliere i mezzi sulla base di obiettivi dati.
Dato questo sfondo, a giudizio di Lindblom una decisione va misurata sulla base della sua capacità di determinare differenze rispetto allo status quo esistente. A differenze più piccole corrisponde una maggiore facilità di giudizio dei decisori, che procedono per comparazioni successive più che tentare di raggiungere una meta prefissata, mentre la valutazione della decisione dipenderà dall’accordo raggiunto tra i policy makers (coloro che hanno qualche influenza o interesse sulla posta in gioco).
Come appare evidente, nell’ambito del modello incrementale un criterio di giudizio di natura interattiva o politica sostituisce un criterio di tipo tecnico; l’arte dell’arrangiarsi (muddling through) sostituisce il calcolo razionale.
Secondo il suo ideatore, è questo approccio decisionale a garantire i diritti di libertà, a impedire la concentrazione del potere, a consentire in molte circostanze di decidere potendo contare su un miglior livello di informazione e una maggiore razionalità.
Politico – burocratico
L’immagine tipo che contraddistingue i diversi modelli politico burocratici è rappresentata dal gioco politico competitivo – cooperativo che ha come protagonisti molteplici decisori che occupano diverse posizioni gerarchiche.
Affinché ci si possa riferire a tale modello occorre che:
i decisori operino in un contesto di potere condiviso;
l’ambiente sia caratterizzato da incertezza circa ciò che bisogna fare, da necessità di fare qualcosa, da conseguenze cruciali per ogni cosa che viene fatta;
anche il non far niente sia una mossa del gioco;
la comunicazione sia una variabile decisiva;
ciascun partecipante possa e debba fare delle cose a seconda della sua posizione;
il gioco sia fatto di più sottogiochi contemporanei;
ciascuna mossa sia il risultato di compromessi, coalizioni, competizione confusione circa la vera faccia del problema;
ogni giocatore porti con sé il proprio stile di gioco e la sua esperienza.
Nella sostanza, nell’ambito dei modelli politico – burocratici il potere è la vera variabile indipendente; il risultato di una decisione dipende spesso dal potere e dall’abilità di chi la sostiene o si oppone ad essa; attraverso la negoziazione ciascun gioco viene avviato verso la risoluzione (decisione); si decide non in base alla competenza ma all’accesso politico.
Garbage can
Il modello decisionale del garbage can (cestino dei rifiuti) si deve a MARCH e Olsen, i quali conducono una lunga attività di analisi degli aspetti non razionali delle decisioni nelle organizzazioni alla scopo di dimostrare che ciò che appare caotico e casuale possiede una struttura logica nascosta e risponde ad una precisa esigenza funzionale.
Diversamente dai modelli della razionalità limitata ed incrementale, caratterizzati da incertezza, il modello garbage can è contraddistinto da ambiguità e confusione che, in quanto tali, non possono essere ridotte attraverso l’aumento delle informazioni e delle conoscenze disponibili.
Ciò determina secondo gli autori alcune conseguenze importanti:
gli attori non possono guidare razionalmente il processo decisionale, dato che gli scopi e le preferenze non possono essere definiti prima e indipendentemente dal processo stesso, ma prendono forma soltanto durante il corso d’azione nel quale essi si inoltrano (il processo fornisce la base sulla quale gli attori recitano la propria parte);
le attività e i compiti sono necessariamente ambigui e indeterminati;
le procedure e i modi di procedere sono fra loro mutuabili ed equivoci;
i partecipanti e gli attori impegnati nel processo entrano ed escono dalla scena in relazione al livello d’interesse che li lega ai problemi, cosicché anche la partecipazione risulta essere fluida e incostante.
Il fatto che non si tratti di un processo lineare fa sì che nella realtà anche queste variabili più che essere collegate da un ordine di sequenza (si parte da una criticità per arrivare, attraverso la definizione di una specifica procedura da parte degli attori coinvolti nel processo decisionale, a scoprire una soluzione pertinente), si incontrino con una modalità che assomiglia molto a quella del cestino nel quale si trovano ad essere mescolate specie diverse di rifiuti prive di legami tra di loro.
L’idea è insomma che anche nell’ambito del sistema sociale vengano depositate un numero ragguardevole di variabili (soluzioni potenziali, problemi latenti, attori rituali, opportunità, ecc.), che seguono il proprio corso in maniera indipendentemente fino a quando non intervengono fattori contingenti e temporali che favoriscono il loro incontro in un ordine di sequenza non necessariamente lineare e che rappresentano i criteri che regolano le scelte.
In particolare MARCH e Olsen individuano tre principali processi di sequenza decisionale:
nel primo la scelta finale adottata risponde a un problema, non importa se stabilito in partenza o sostituito nel corso del procedimento. Si tratta di un processo statisticamente poco frequente dato che sono poche le decisioni pubbliche che possono essere ricollegate a problemi chiaramente identificabili;
nel secondo la scelta non risponde affatto, o non risponde più, a un problema, che può essere stato perso di vista nel corso del procedimento oppure non essere stato mai evocato. In questo processo, molto più frequente del primo, la scelta si è compiuta proprio grazie al fatto di aver scartato qualunque problema;
nel terzo il problema è scartato, non vi è stata scelta finale, il processo si è arrestato per abbandono.
Partecipativo
Il modello partecipativo (partecipative decision-making) è marcatamente europeo, strettamente connesso al modello della democrazia industriale, muove dall’idea che la partecipazione sia una questione decisiva per le organizzazioni.
La domanda fondamentale alla quale tale modello cerca di rispondere non è “come scegliere” ma “con chi scegliere” e questo lo rendo per molti versi anomalo rispetto a tutti gli altri modelli fin qui analizzati.
Tra i diversi studi che sono stati realizzati a partire dalla fine degli anni 60 e l’inizio degli anni 80 quello di Heller può essere classificato nell’ambito della Teoria della contingenza e si prefigge di mettere in evidenza le connessioni esistenti tra i diversi stili decisionali e tre gruppi di variabili come l’efficienza, l’utilizzo delle abilità e la soddisfazione sul lavoro.

Learning organization

Vedi anche
APPRENDIMENTO ORGANIZZATIVO – GESTIONE DELLA CONOSCENZA AZIENDALE – K.M.

Concetti e parole chiave
Apprendimento continuo – Modello dei gradi tre – Modello del cambiamento culturale – Modello delle dinamiche culturali

Spiegazione
Si definisce LEARNING ORGANIZATION l’organizzazione che si propone di conoscere sé stessa attraverso processi di apprendimento continuo, prima favoriti e poi utilizzati, dei suoi componenti.
L’origine del concetto si deve a Lewin e alla sua teoria del cambiamento sociale secondo la quale il cambiamento é prodotto dal succedersi di tre fasi (scongelamento, cambiamento, ricongelamento) e ogni sistema é il risultato dell’equilibrio tra forze favorevoli e forze contrarie al cambiamento.
Tra i modelli più significativi sviluppati nell’ambito della LEARNING ORGANIZATION è utile ricordare:
1. il modello dei “Grandi Tre” di Kanter, Stein e Jick, secondo i quali il cambiamento è un processo articolato e dinamico che si determina a tre livelli:
1.1. ambientale (laddove agiscono forze macro evolutive che impattano sull’identità organizzativa);
1.2. della singola organizzazione (a questo livello agiscono invece forze micro evolutive che impattano su attività e processi);
1.3. dell’individuo (qui agiscono infine le forze che influiscono sulla distribuzione dei poteri e del controllo);
2. il modello del cambiamento culturale di Pasquale Gagliardi, secondo il quale:
2.1. il cambiamento può avere più forme (apparente, rivoluzionario, incrementalismo culturale);
2.2. è la cultura a creare l’identità organizzativa mentre la strategia organizzativa ha come scopo primario proprio la protezione di tale identità;
2.3. le strategie secondarie possono essere invece strumentali, se hanno come scopo l’adattamento e l’integrazione, o espressive, se perseguono invece stabilità e coerenza dei significati;
3. il modello delle dinamiche culturali che ritiene che:
3.1. valori, assunti, artefatti e simboli sono interdipendenti e collegati da relazioni di reciprocità;
3.2. la cultura è un processo che si articola in più fasi:
3.2.1. quella della manifestazione, che si riferisce ad assunti e valori;
3.2.2. quella della realizzazione, relativa agli artefatti;
3.2.3. quella della simbolizzazione, che attiene ai simboli;
3.2.4. quella dell’interpretazione, nella quale avviene il cambiamento.

Knowledge Management

Vedi anche
APPRENDIMENTO ORGANIZZATIVO – B.P.R. – GESTIONE DELLA CONOSCENZA AZIENDALE – KNOWLEDGE MANAGEMENT SYSTEMS

Concetti e parole chiave
Condivisione della conoscenza – Dato, informazione, conoscenza, saggezza – Filosofia della collaborazione

Spiegazione
Non esiste un’unica e conclusiva definizione di K.M.
In senso lato, il concetto é rintracciabile fin dall’antichità e si riferisce alla preservazione e alla condivisione della conoscenza mentre al tempo della rivoluzione digitale crea spesso aspettative troppo mirabolanti per essere sempre vere: essere connessi con partner, clienti, dipendenti per condividerne le conoscenze; fornire le proprie conoscenze a clienti, partner, dipendenti; disporre di procedure e strumenti per sistematizzare le conoscenze; incorporare le conoscenze nei processi aziendali; rielaborare continuamente le norme aziendali in base alle conoscenze.
Più realisticamente, si può affermare che la non banale consapevolezza del fatto che avere a disposizione delle conoscenze non significa automaticamente saperle usare per i nostri fini, rende semplicemente più importante questo filone di ricerca teorica e applicativa che mira a sviluppare il ciclo della conoscenza all’interno di una comunità di pratica o d’apprendimento tramite strumenti e tecnologie dell’informazione.
In ogni caso, quando nella seconda metà degli anni 80 Karl Wiig enuncia i principi del K.M. molte grandi aziende, soprattutto multinazionali, mostrano subito un forte interesse verso questa teoria che si propone un obiettivo decisamente pragmatico: esplicitare e mettere in comune dati (grezzi), informazione (dati selezionati e organizzati per essere comunicati), conoscenza (informazione rielaborata e applicata alla pratica), saggezza (conoscenza distillata dall’intuizione e dall’esperienza) che ogni componente ha maturato nel corso del suo percorso professionale per migliorare l’efficienza dei gruppi collaborativi (la piramide è la figura geometrica utilizzata per rappresentare il concetto).
I primi investimenti si concentrano soprattutto sullo sviluppo dei mezzi per rendere veloce e semplice l’archiviazione, la descrizione e la comunicazione di dati e informazioni. E’ la cosiddetta prima fase, la first generation, che si riferisce alla mera gestione dell’informazione e tende a ridurre il K.M. alla sua componente strumentale, l’information technology, che é fondamentale ma non ne esaurisce le potenzialità dato che il ciclo della conoscenza non si limita alla trasmissione di dati e informazioni.
La seconda fase del KM (condivisione della conoscenza) si focalizza infatti sulle modalità attraverso le quali le conoscenze professionali di ogni specifico componente dell’organizzazione possono essere messe al servizio di tutta l’azienda e per questa via il KM acquista il carattere di vera e propria filosofia della collaborazione e della condivisione della conoscenza negli ambienti di lavoro.
Dato questo contesto, è utile aggiungere che le linee guida del KM sono domandarsi perché prima ancora di come, conoscere facendo ma anche insegnando ad altri, privilegiare l’azione piuttosto che concetti e piani formalmente ineccepibili, considerare l’errore una componente ineliminabile dell’azione, eliminare la paura perché impedisce di convertire la conoscenza in azione, combattere la competizione, conoscere il contesto, capire come può sostenere i propri progetti, convertire tale conoscenza in azione, comprendere come le aziende leader allocano tempo e risorse. E che i nuovi sistemi di KM si concentrano sull’e-learning, studiano metodi per esplicitare la conoscenza tacita e per la favorire la creatività.

Cognitivismo

Vedi anche
APPRENDIMENTO ORGANIZZATIVO – CYERT – MARCH – SIMON – WEICK

Concetti e parole chiave
Decisione – Mappa cognitiva – Razionalità limitata – Senso e significato

Spiegazione
Si deve a SIMON (1957), CYERT e MARCH (1963), WEICK (1969) l’importanza del cognitivismo negli studi organizzativi.
Più specificatamente si può dire che il cognitivismo fa il proprio ingresso negli studi organizzativi con l’introduzione alla seconda edizione di Administrative Behavior (1957), nella quale SIMON risponde alle argomentazioni e alle critiche seguite alla pubblicazione della prima edizione (nella quale la teoria della scelta razionale era presentata in un’accezione decisamente più ristretta di quella che poi si è affermata) e indica nel concetto di razionalità limitata la chiave per leggere, comprendere, interpretare lo spazio altrimenti inaccessibile esistente tra aspetti razionali e non razionali del comportamento sociale delle organizzazioni.
SIMON sostiene che le organizzazioni vanno definite a partire dal complesso e variegato sistema di comunicazioni e di relazioni che nasce e si stabilisce tra le persone e che fornisce loro informazioni, premesse di decisione, attitudini, obiettivi che a loro volta influenzano le decisioni e le aspettative individuali. Sono proprio le premesse decisionali, l’attività di costruzione mentale di un modello semplificato della realtà, a rappresentare per SIMON l’unità di analisi necessaria a comprendere l’effettivo funzionamento delle organizzazioni.
All’interno di tale contesto la cognizione rappresenta il concetto da impiegare per studiare le relazioni tra razionale e non razionale e può essere definita come un’attività che:
1. é allo stesso tempo da un lato mentale e soggettiva, dall’altro connessa al contesto e alle azioni di altri soggetti;
2. definisce l’organizzazione sulla base di un processo di costruzione di significati e di negoziazione mai finita di obiettivi, aspettative, memorie;
3. attraverso la gestione dell’informazione ne limita l’ambiguità;
4. agisce in maniera retrospettiva rispetto all’azione organizzativa;
5. definisce e stabilizza comportamenti, schemi e routine;
6. permette all’organizzazione di apprendere;
7. è rappresentabile in quanto mappa cognitiva condivisa;
8. si collega direttamente alle teorie relative che, nell’ambito dei cosiddetti approcci morbidi alle organizzazioni, individuano percorsi di accesso alla realtà all’interno dei quali la costruzione intersoggettiva e il conferimento di senso hanno un’importanza decisiva.

Apprendimento organizzativo

Vedi anche
ARGIRYS – GESTIONE DELLA CONOSCENZA AZIENDALE – KNOWLEDGE MANAGEMENT – SCHÖN

Concetti e parole chiave
Cambiamento – Conoscenza – Identità – Informazione

Spiegazione
La fondazione sociologica del concetto di APPRENDIMENTO ORGANIZZATIVO colloca il sapere entro un network di potere e relazioni sociali mediate da artefatti e da intermediari umani e non umani che ne facilitano o ne ostacolano la circolazione.
Più specificatamente, attraverso tale concetto ci si riferisce all’insieme dei processi che consentono di leggere i contesti organizzativi, le relazioni tra persone, organizzazioni e società, e i loro significati, dal punto di vista della conoscenza. Essendo la conoscenza diretta verso un fine, non si riferisce solo alle credenze e al coinvolgimento, ma anche all’azione, e consente perciò di valutare criticamente successi e insuccessi di una data organizzazione, di ridefinirne costantemente azioni ordinarie e indirizzi strategici, di accogliere e valorizzare punti di vista ulteriori rispetto a quelli prevalenti, di sperimentare innovazioni tecniche e organizzative, di collocare gli eventi all’interno di un contesto mentale e dare dunque loro un senso, di sostenere le persone nei loro potenzialmente mai finiti tentativi di crescita culturale e professionale. Il processo decisionale dell’organizzazione viene per questa via modellato su quello individuale mentre l’azione é orientata verso l’obiettivo e tende all’adattamento (quello a breve termine corrisponde alla risoluzione di problemi, quello a lungo termine all’apprendimento).
A partire da questa iniziale formulazione e in linea con gli orientamenti cognitivisti si sviluppa un filone di studi, denominato teoria cognitiva dell’APPRENDIMENTO ORGANIZZATIVO, che situa l’apprendimento in primo luogo nella mente degli individui.
Accanto a una formulazione che ricade principalmente entro una epistemologia positivista compare dunque in anni più recenti una declinazione del concetto in termini di apprendimento sociale, veicolato dalla formulazione di apprendimento come partecipazione competente ad una comunità di pratiche (ancora una volta la declinazione simoniana di cognizione come chiave per studiare gli aspetti razionali e non-razionali della condotta sociale mostra di avere la flessibilità per accentuare di volta in volta gli uni o gli altri.

Ad ARGIRYS e SCHÖN (1974; 1978) si deve la definizione dell’organizzazione come costrutto cognitivo che attraverso l’individuazione e la correzione di errori e anomalie modifica la memoria e la propria mappa concettuale.
Le idee guida fondamentali intorno alle quali essi sviluppano le proprie tesi possono essere così sintetizzate:
1. le organizzazioni sono in grado di apprendere in quanto strutture e per questa via modificano i propri modi di essere e di operare;
2. in un’organizzazione che apprende tutti i componenti contribuiscono a ridefinire, arricchire, tradurre in linguaggio comune le diverse abilità;
3. a differenza di quanto avviene in contesti di apprendimento individuale, nei quali l’individuazione e la correzione dell’errore rimane esperienza del singolo, l’APPRENDIMENTO ORGANIZZATIVO incide e determina conseguenze, più o meno positive a seconda delle scelte operate, sull’intera struttura;
4. l’individuazione e la correzione di errori che non mettono in discussione gli aspetti chiave della mappa cognitiva usata nell’organizzazione mette in moto un processo di apprendimento a giro singolo (single-loop learning), mentre la scoperta e la correzione di errori che producono un mutamento di tale mappa determinano un processo di apprendimento a giro doppio (double-loop learning).
Decisamente importante è anche il contributo teorico di Ikujiro Nonaka e Hirotaka Takeuchi, secondo i quali ciascuna organizzazione è strutturata in comunità di interazione che incarnano altrettanti nodi di elaborazione del sapere.
Con una sintesi estremamente lucida delle due visioni fino ad allora prevalenti (secondo la prima, di tipo top – down, le informazioni sono elaborate dal vertice e fluiscono attraverso direttive ai livelli di volta in volta successivi fino alle linee di produzione che restituiscono informazioni e riavviano il processo; per la seconda, di tipo bottom – up, chi dirige tenta di valorizzare il più possibile le capacità di chi lavora, le conoscenze sono più spesso di tipo tacito, le risorse della base sono fondamentali per raggiungere gli obiettivi) i due studiosi giapponesi strutturano il loro modello attorno all’idea che sono gli individui, e non le organizzazioni, che con la loro capacità di apprendere, adattarsi, creano conoscenza. Per massimizzare i benefici derivanti da tali processi le organizzazioni hanno tutto l’interesse a favorire contesti e processi di sviluppo della creatività e della conoscenza dei singoli.
Il modello organizzativo proposto da Nonaka e Takeuchi è non a caso definito middle-bottom-up e affida al middle management una funzione fondamentale di cerniera tra conoscenza esplicita e strategica del top management e conoscenza tacita caratteristica degli operai di linea: è ai capi intermedi che essi assegnano il compito di gestire il processo di trasformazione della conoscenza, di tenere assieme strategia e innovazione.
Per Nonaka e Takeuchi la conoscenza può essere infatti esplicita o tacita.
La prima (razionale – mentale, sequenziale, digitale – teorica) si riferisce a tutto ciò che è manifestabile attraverso sistemi formali di comunicazione, presenti struttura e contenuti logici e linguistici, è trasmessa per mezzo di libri, manuali, corsi. La seconda (corporea, legata all’esperienza, simultanea, analogica – pratica) è invece il prodotto di intuizioni, nozioni personali, esperienza, cultura e valori morali, viene trasmessa attraverso metafore, analogie, esempi pratici, può essere tecnica (quando si riferisce alla manualità, alle abilità pratiche, alle arti) o cognitiva (quando si riferisce all’elaborazione, a modelli, schemi, paradigmi mentali, alle prospettive che ciascuno crea).
Dato questo contesto, per Nonaka e Takeuchi si crea conoscenza, si sviluppa know how e apprendimento nella misura in cui si riesce da un lato a risolvere problemi specifici sulla base del contesto di riferimento e dall’altro e conseguentemente si riesce a modificarlo. L’organizzazione che apprende deve perciò essere in grado di operare continue conversioni di conoscenza (da esplicita a implicita e viceversa) perché per questa via è possibile creare campi di interazione nell’ambito dei quali si può condividere conoscenza e modelli mentali, socializzare, creare nuova conoscenza.
Per fare un esempio, attraverso metafore e analogie si può creare, sulla base di un processo di conversione che è definito di esteriorizzazione, conoscenza esplicita che genera prodotti, servizi, innovazione, si combina con ulteriore conoscenza esplicita, produce nuova esperienza e dunque nuova conoscenza implicita (in questo caso il processo viene definto di interiorizzazione). È la spirale senza fine che è alla base dell’innovazione contenuta nei nuovi prodotti, della spinta verso la creazione di ulteriore conoscenza.
Naturalmente non si tratta di un processo automatico. Perché esso si avvii c’è bisogno di consistenti motivazioni allo scambio di conoscenza, di leadership ben definite, di obiettivi chiari.
Più specificatamente Nonaka e Takeuchi individuano cinque parole chiave attorno alle quali articolano la loro idea di sviluppo della conoscenza:
1. intenzionalità: gli obiettivi del processo devono essere definiti e condivisi da tutti i partecipanti anche se talvolta una dose di indeterminatezza favorisce lo sviluppo di nuove idee;
2. autonomia: le conoscenze emergono soltanto se chi lavora lo fa in piena autonomia, è capace di cogliere le opportunità che essa offre e la sa gestire;
3. ridondanza: più le informazioni disponibili sono sovrabbondanti più ampie sono le possibilità di gestire positivamente le spinte all’innovazione generate dal processo;
4. caos: la definizione di schemi mentali e processi organizzativi alternativi e più rispondenti ai bisogni richiede “caos creativo” (che nasce spesso da situazioni di crisi);
5. varietà: l’apporto di conoscenze diverse (marketing, tecniche, amministrative, ecc.) è decisivo per individuare risposte efficaci ai dilemmi organizzativi.
In definitiva, il processo di trasformazione e di apprendimento muove dalla persone, coinvolge il gruppo e l’organizzazione, diventa conoscenza (capacità dei dipendenti, sistemi tecnologici, sistemi manageriali, valori, norme) e dunque occasione di vantaggio competitivo, fa sì che ciascuna organizzazione rappresenti un nodo della rete di produzione e scambio di conoscenza, servizi e beni con altre organizzazioni sulla base di un processo che è allo stesso tempo conservativo (dell’identità) e adattivo, cioé capace di di facilitare l’evoluzione delle competenze distintive e ridefinire costantemente il proprio rapporto con l’ambiente.

Economia dei Costi di Transazione

Vedi anche
PFEFFER e SALANCIK – OUCHI – WILLIAMSON

Concetti e parole chiave
Gerarchia e mercato – Logica del Clan

Spiegazione
È il 1937 quando Ronald Coase scrive The Nature of the Firm, l’articolo che nel 1991 gli farà tributare il premio Nobel (per la verità tre anni prima John Commons aveva a propria volta evidenziato come le strategie delle imprese fossero condizionate dalle istituzioni giuridiche), ma solo nel corso degli anni 70 l’ECONOMIA DEI COSTI DI TRANSAZIONE (E.C.T.) nasce e si sviluppa come teoria in grado di interpretare i profondi mutamenti conseguenti alla crisi dell’impresa in quanto funzione della produzione che utilizza al meglio la tecnologia disponibile ed é gestita con l’ausilio di una BUROCRAZIA, alla diffusione dei processi di deverticalizzazione e di decentramento, alla messa in discussione della tecnologia come criterio fondamentale per definire i confini dell’impresa.
È a partire da quegli anni che le grandi imprese, fino ad allora caratterizzate da strutture verticali fortemente integrate, iniziano a trasferire a imprese più piccole quote crescenti di produzione. La trasformazione diventa presto radicale e sarà WILLIAMSON, il maggiore interprete della E.C.T., a definire in maniera inequivocabile i caratteri che connotano la nuova fase, nella quale oggetto di analisi non è più il bene prodotto ma la transazione e conseguentemente l’impresa si trasforma da funzione della produzione a struttura di governo delle variegate forme di contratto (transazioni) che essa può stipulare.
Al tempo dell’E.C.T. l’impresa si trova costantemente di fronte a un bivio: da una parte c’è la strada che la porta a continuare a produrre (Make) al proprio interno; dall’altra quella che la induce a rivolgersi a fornitori esterni dai quali acquistare (Buy) prodotti, servizi, tecnologie, più o meno specifiche.
Molte sono le novità che caratterizzano il nuovo scenario:
1. il mercato non é più un meccanismo autosufficiente;
2. il contesto storico – istituzionale ha un ruolo fondamentale;
3. la dimensione micro (l’atmosfera aziendale, il sapere, l’innovazione, ecc.) e quella macro (il mercato del lavoro, il contesto istituzionali, ecc.) dell’impresa sono parimenti importanti;
4. l’organizzazione non coincide più con la BUROCRAZIA;
5. la tecnologia non é una variabile indipendente;
6. tra economia e sociologia dell’organizzazione si stabiliscono nuovi e profondi rapporti;
7. i comportamenti umani sono determinati non solo dalla razionalità limitata così come é stata definita da SIMON (sebbene gli uomini vogliano comportarsi in modo razionale, nei fatti tale volontà é limitata dai limiti di conoscenza, lungimiranza, abilità tecniche e di tempo a disposizione per agire), ma anche dall’opportunismo, che fa in modo che essi possano perseguire i propri interessi persino con mezzi illeciti come l’inganno e la frode.
Detto che tanto le organizzazioni gerarchiche quanto quelle di mercato sono destinate al fallimento quando non riescono a sostenere i costi (incentivi) necessari a soddisfare le differenziate esigenze (contributi) dei lavoratori, quando non riescono a connettere gli scopi particolari con i fini generali, si può aggiungere che nel nuovo sistema orientato al controllo tanto delle persone e dei soggetti che in essa operano quanto delle transazioni che questi stessi intrattengono con l’esterno (J. Child 1973; R. Cafferata 1984) l’obiettivo centrale per il buon governo dell’impresa diventa quello di ridurre il più possibile i costi di transazione necessari per stipulare e gestire ciascun contratto e di conseguenza assumono una funzione importante le salvaguardie necessarie a evitare che i contratti non siano rispettati o che i loro costi lievitino in conseguenza di valutazioni errate.
Mercato e gerarchia rappresentano in ogni caso i due poli di una retta lungo la quale sono presenti tutte le possibili scelte, per definizione mai definitive e stabili, di un’impresa.
Di norma, quando la tecnologia é generica, le transazioni sono poco frequenti, i costi di salvaguardie sono bassi conviene rivolgersi al mercato e avere un’azienda minima; quando invece la tecnologia é specifica, le transazioni frequenti, i costi di salvaguardia elevati è più conveniente produrre in casa e creare una gerarchia.
Ancora su questo tema è utile ricordare che le organizzazioni gerarchiche riescono molto meglio a determinare condizioni stabili e di relativa certezza nella definizione di un rapporto equilibrato tra incentivi e contributi (hanno più possibilità di influenzare i comportamenti personali e di regolare le prestazioni di lavoro) ma riescono molto peggio a rispondere alle turbolenze ambientali, ad adattarsi in maniera veloce e flessibile ai cambiamenti repentini del contesto (M. Aoki 1991).
Nei fatti è dunque necessario di volta in volta valutare l’influenza delle crisi di mercato (il continuo ricorso a uno stesso fornitore altamente specializzato può incentivare il suo opportunismo mentre la considerazione degli elevati costi che bisogna affrontare per trovare un altro fornitore può consigliare di riportare quelle attività all’interno dell’azienda, anche attraverso il controllo o l’acquisto dell’azienda precedentemente fornitrice) e delle crisi della gerarchia (l’eccessiva verticalizzazione, contrasti sindacali, scarsa innovatività della struttura possono consigliare di rivolgersi al mercato esterno) ed essere capaci di valutare attentamente le possibile soluzioni intermedie tra mercato e gerarchia, come ad esempio joint ventures, franchising, associazione e consorzi temporanei di impresa, ecc.
Castells (19..) parte proprio da quest’ultimo assunto per portare alcune critiche ai principi dell’E.C.T. e per spiegare le ragioni per le quali, a suo avviso, essa non é in grado di spiegare la network enterprise e, più in generale, la Società digitale. Nella Net Economy, questa la sostanza delle sue argomentazioni, la crescente complessità e specializzazione delle tecnologie, assieme alla globalizzazione dei mercati dovrebbe portare ad una crescente verticalizzazione delle imprese. Accade invece il contrario dato che l’aumento dei costi di transazione porta all’estensione della rete di produttori esterni, in modo che i costi vengano ripartiti tra la rete stessa.

Neoistituzionalismo

Vedi anche
CZARNIAWSKA – MEYER e ROWAN – POWELL e DI MAGGIO – SELZNICK – THOMPSON –ZUCKER

Concetti e parole chiave
Campo organizzativo – Isomorfismo – Miti razionali – Popolazioni organizzative

Spiegazione
La scuola neoistituzionalista rappresenta una delle più importanti correnti sociologiche contemporanee. Pur non rinnegando il proprio legame con il pensiero istituzionalista di SELZNICK (la società non può essere considerata un semplice aggregato di soggetti e organizzazioni che agiscono sulla base di criteri di razionalità, seppur limitata, per massimizzare le proprie utilità; occorre spostare la riflessione dalle scelte definite in maniera autonoma dal singolo individuo o dalla singola organizzazione al contesto istituzionale nel quale gli uni e le altre operano), essa sviluppa in maniera del tutto autonoma e originale l’analisi relativa al rapporto tra contesto istituzionale e singola organizzazione.
Infatti con il NEOISTITUZIONALISMO il tema centrale dell’analisi organizzativa non è dato più dalle pressioni esercitate dall’ambiente esterno sull’organizzazione e dai cambiamenti che tale pressione determina sugli scopi originari di quest’ultima, ma dal processo di azione – retroazione che si determina tra organizzazioni (azioni) e istituzioni (norme) e che fa sì che organizzazioni dello stesso tipo siano molto simili tra loro.
Oggetto principale di indagine non sono più le singole organizzazioni ma popolazioni organizzative, l’insieme di unità, soggetti, organizzazioni che operano in un determinato contesto istituzionale.
Le istituzioni diventano il punto vero sul quale puntare l’interesse, dato che le strategie e i criteri di giudizio delle organizzazioni sono largamente imputabili alle pressioni alla conformità esercitate dal contesto istituzionale, ai condizionamenti di ordine materiale e simbolico che le istituzioni esercitano sui comportamenti umani e su quelli delle organizzazioni.
Sono MEYER e ROWAN (1977), con un articolo nel quale propongono il concetto di isomorfismo come chiave per comprendere le ragioni per le quali organizzazioni che operano nell’ambito dello stesso contesto istituzionale sono spinte ad assumere scelte molto simili tra loro ad avviare la stagione del pensiero neoistituzionalista.
L’idea è che per essere giudicate efficienti, massimizzare legittimità, risorse, capacità di sopravvivenza, le organizzazioni devono rispettare criteri di razionalità stabiliti dal contesto istituzionale. Che i processi di isoformismo non sono determinati soltanto dalla tendenza ad uniformarsi all’ambiente esterno ma anche dell’azione dell’ambiente che spinge alla nascita di nuove organizzazioni coerenti con i miti razionali (regole istituzionalizzate, norme, cerimoniali di procedure) da esso stesso prodotti. Che a un nuovo mito che si consolida corrispondono nuove organizzazioni che nascono per rispondere ai bisogni che esso produce e alimenta. Che la strada migliore per gestire il conflitto tra i criteri di razionalità interni e le spinte dell’ambiente è quella di sviluppare due strutture parallele, una formale, coerente con i miti e i cerimoniali, l’altra informale, coerente con l’obiettivo dell’efficienza interna.
A POWELL e DI MAGGIO si deve invece il concetto di campo organizzativo, da essi definito come un’area riconosciuta di vita istituzionale caratterizzata da confini fluidi e indistinti ma con una fitta e stabile rete di comunicazione nell’ambito della quale un insieme estremamente variegato di attori sociali, economici, politici, culturali, contribuisce, in maniera più o meno consapevole, a determinare processi di cambiamento. A loro avviso, la correlazione diretta esistente tra dipendenza dalle risorse esterne, ambiguità e incertezza dell’organizzazione e velocità dei processi di isomorfismo, fa sì che i campi organizzativi siano analogamente tanto più integrati quanto minori sono i modelli alternativi possibili e più elevata è la professionalità di chi vi opera.

Motivazionalismo

Vedi anche
ARGYRIS – BARNARD – HERZBERG – MASLOW – SISTEMA COOPERATIVO

Concetti e parole chiave
Bisogni umani – Contributi e incentivi – Fattori igienici – Soddisfazione nel lavoro –

Spiegazione
Secondo l’uso corrente del termine una persona è motivata quando ha, sente di avere, dentro di sé, una spinta che lo induce a impegnarsi al meglio delle proprie capacità e delle proprie forze nello studio, nel lavoro, nello sport e così via discorrendo. Più tecnicamente, la motivazione può essere definita come una forza interiore che stimola, regola e sostiene determinate azioni e comportamenti e il sistema motivazionale come l’insieme dei bisogni percepiti con varia intensità e delle relazioni esistenti tra tali bisogni e il comportamento dell’individuo.
All’origine delle motivazioni c’è dunque una tensione interiore, un bisogno, che la persona cerca di soddisfare; la soddisfazione del bisogno produce a propria volta la rivalutazione della situazione e favorisce l’insorgenza di bisogni ulteriori secondo una logica circolare che è connaturata e dunque può essere sollecitata, alimentata, ma non indotta dall’esterno.
Per definire quali siano gli elementi che governano la motivazione nell’ambito lavorativo sono state formulate numerose teorie fin da quando, con gli studi di MAYO e del suo gruppo, è apparsa evidente la necessità che il lavoro operaio non fosse considerato soltanto una rotella dell’ingranaggio tayloristico ma una componente coinvolta, compartecipe, motivata, del processo di produzione.
Per ARGIRYS solo lavoratori motivati, che si sentono sostenuti nei loro bisogni di crescita professionale ed umana possono apportare un contributo effettivo alle esigenze di produttività e di efficienza delle organizzazioni.
Per BARNARD le motivazioni che spingono le persone a contribuire al funzionamento delle organizzazioni rappresentano la chiave per comprendere come funziona un’organizzazione e per determinare i processi collaborativi che sono alla base del suo SISTEMA COOPERATIVO.
Per HERZBERG sono i fattori motivazionali (riconoscimento, responsabilità, crescita professionale, ecc.) che, diversamente da quelli igienici, motivano chi lavora, appagano bisogni superiori, rendono più produttivo chi lavora.
Per MASLOW i bisogni umani hanno la priorità rispetto a quelli delle organizzazioni e queste ultime vanno valutate proprio rispetto alla loro capacità di rispondere ai bisogni di autorealizzazione sul lavoro.
Per Salvemini la scala dei bisogni nel contesto lavorativo si articola in bisogni di consumo, di sicurezza, di socialità, di stima, di potere, di realizzazione.
McGragor applica la teoria di MASLOW al management e teorizza che il dirigente si comporta secondo due modalità diverse (Teoria X e Teoria Y) a seconda della sua concezione dell’uomo. Per la teoria X il dirigente affida all’autorità la propria leadership e ritiene che le persone siano indolenti, svogliate, orientate a lavorare il meno possibile. Per la teoria Y affida invece la propria leadership alle relazioni, alla supervisione, agli incentivi positivi perché è convinto che le persone sono responsabili, attive, e ritengono importante sentirsi soddisfatti sul lavoro. Nella sostanza il lavoratore si comporta secondo i dettami della teoria X o Y a seconda della sua possibilità di soddisfare i propri bisogni: quando non riesce a soddisfare quelli di ordine inferiore (i bisogni fisiologici e di sicurezza di MASLOW e i fattori igienici di HERZBERG) tende a comportarsi come descritto dalla teoria X, quando riesce a soddisfare quelli di ordine superiore (i bisogni di appartenenza, stima ed autorealizzazione di MASLOW e i fattori motivanti di HERZBERG) si comporta come descritto dalla teoria Y.
Per Vroom la motivazione é connessa alla valenza (l’importanza che la persona dà al raggiungimento di un obiettivo) e all’aspettativa (le probabilità di conseguire l’obiettivo che la persona ritiene di avere in suo possesso). La valenza può essere sia positiva, quando si vuole qualcosa, che negativa, nel caso contrario; l’aspettattiva può essere soltanto positiva o pari a zero (nei casi in cui la persona ritiene di non avere alcuna probabilità di raggiungere l’obiettivo).
Dato questo schema, la motivazione per Vroom é data dalla moltiplicazione della valenza per l’aspettativa (o dalla moltiplicazione della valenza per l’aspettativa per il valore della ricompensa conseguente al raggiungimento dell’obiettivo).
Le persone che hanno chiaro il rapporto tra ciò che fanno, l’obiettivo che devono raggiungere, il premio che li aspetta in caso di risultato positivo, avranno forti o comunque maggiori motivazioni.

Postfordismo

Vedi anche
FORD – JUST IN TIME – MODELLO GIAPPONESE – PIORE SABEL E ZEITLIN – TAYLOR

Concetti e parole chiave
Fabbrica snella – Integrazione orizzontale – Qualità totale – Sviluppo delle competenze

Spiegazione
Tra la fine degli anni 70 e l’inizio degli 80 i paesi tecnologicamente più sviluppati sono interessati da un insieme di trasformazioni economiche, istituzionali, sociali, tanto profondo da determinare un vero e proprio passaggio di fase. Dopo lunghi decenni di dominio incontrastato, il modello sociale e produttivo fordista, quello specifico modo di produrre e di regolare la società che tanto peso aveva avuto nelle vicende economiche e istituzionali dei paesi più sviluppati, va in crisi. È una crisi che investe più cose e ambiti, anche molto diversi tra loro per rilevanza, che produce nei diversi paesi esiti anche molto diversi a seconda del ruolo che ciascuno di essi riveste nell’ambito della divisione internazionale del lavoro, degli attori istituzionali coinvolti nel processo regolativi, dei sistemi di welfare vigenti, del ruolo e del peso del sindacato.
Vanno in crisi le strutture organizzate secondo criteri gerarchici (to make) e integrate per via verticale. È pesantemente messo in discussione il modello concertativo di distribuzione della ricchezza definito tra le grandi rappresentanze imprenditoriali e sindacali con la supervisione degli stati nazionali. Vanno in crisi gli stati nazione, si modificano i rapporti di forza tra politica – nazione ed economia mondo, si affermano poteri di livello sovranazionale, si assiste a una sensibile contrazione dell’intervento dello stato nell’economia (in particolare nel settore industriale, come attesta il diffuso processo di privatizzazione avvenuto nelle economie di mercato sviluppate). Mutano le forme e la regolamentazione del lavoro, della sua organizzazione e rappresentanza, c’è un oggettivo ridimensionamento del ruolo contrattuale del sindacato, una crisi della contrattazione collettiva associata a una contemporanea crescita di forme di individualismo contrattuale (in particolare dal versante retributivo). Il posto di lavoro fisso per tutto l’arco della vita diventa sempre più un retaggio del passato, mentre i processi di flessibilità si accentuano sempre di più fino ad assumere sempre più i caratteri della precarietà e dell’insicurezza.
Il cambiamento insomma non si ferma alla fabbrica ma investe il territorio, la società, i rapporti economici, istituzionali, politici, che a livello sociale e territoriale si determinano. Detto che il tramonto del FORDISMO non é riducibile a una mera questione di ordine cronologico (non a caso attività nate recentemente, come i call center o i fast food sono strutturate secondo i principi tayloristici – fordisti), si può aggiungere che a questo cambiamento viene dato un nome, POSTFORDISMO, non a caso abbastanza generale da definire un ambito significativamente più vasto di quello che si riferisce alla modificazione tecnologica e organizzativa dei processi di produzione, tanto da rappresentare un riferimento sia per coloro che guardano ai cambiamenti in atto nella società e nell’economia esaltandone il carattere innovativo e l’apertura di nuovi scenari, sia per coloro che all’opposto mettono decisamente in risalto gli aspetti distruttivi e socialmente disgreganti connessi a tale fase dello sviluppo capitalistico.
Con il POSTFORDISMO si modificano molte cose. E si modificano in maniera profonda.
Mutano profondamente, anche in seguito alla diffusione delle nuove tecnologie dell’informazione, i sistemi, i linguaggi, le forme di comunicazione attraverso le quali le persone stabiliscono rapporti; si sviluppano forme di accumulazione flessibili, capaci di integrare, di mettere in rete, modi, tempi e luoghi di produzione tra loro molto diversi, dalla fabbrica robotizzata alla cascina Hi Tech, dal distretto industriale ai templi della finanza globale; si determinano processi di rilocalizzazione delle risorse strategiche che portano con sé ulteriori processi di inclusione e ulteriori divari (digital divide); l’impresa diventa sempre più un centro di regolamentazione delle transazioni; i processi di competizione si basano più sulla qualità e sulla personalizzazione dell’offerta (con la conseguente necessità da parte delle imprese di rispondere prontamente e in modo flessibile alla domanda) che sui volumi prodotti; vengono definiti nuovi indici di efficacia nell’analisi dei processi produttivi; c’è un diffuso sviluppo del terziario privato, del lavoro autonomo e parasubordinato; si afferma il modello della corporate governance, nascono l’impresa minimale e l’azienda logo.
Le nuove parole d’ordine diventano massima elasticità (minori tempi morti e immobilizzazioni, maggiore prontezza nella messa in opera di nuove produzioni), integrazione dei sistemi di produzione, riduzione dei capitali immobilizzati in scorte e magazzini, fabbrica snella, qualità totale, mentre l’insieme di saperi e conoscenze, il general intellect, diviene il vero capitale sociale, il fattore strategico di sviluppo economico, sociale e produttivo. Del resto sta proprio qui il principale elemento di novità, nel fatto che la conoscenza, accumulandosi, induce nuova conoscenza come fonte primaria di produttività e di mutamento sociale e dunque ha un impatto molto più forte del passato sui processi produttivi, culturali, amministrativi. Anche se ogni modo di produzione ha comportato l’accumularsi di esperienze e saperi, nella fase attuale vi é una sorta di produzione di conoscenza a mezzo di conoscenza determinata da costanti interazioni produttive, garantite dai sistemi di informazione in generale e dalle particolari nervature comunicative, proprie dei diversi processi produttivi e sociali, che sfruttano tecnologie il cui “core” é costituito da elaborazioni di informazioni che sono, a un tempo, materia prima e prodotto.
Il ruolo essenziale e predominante delle tecnologie dell’informazione nei processi innovativi consiste nello stabilire relazioni sempre più strette tra cultura sociale, conoscenza scientifica, sviluppo dei fattori produttivi.
Il capitale culturale sociale, la capacità collettiva di rielaborazione simbolica, in breve, la capacità del lavoro di elaborare informazioni e generare conoscenza, sono la fonte materiale di produttività. Il legame tra lavoro, produzione di conoscenze, la loro diffusione e socializzazione, la formazione è stretto non tanto nel senso tradizionale dell’apprendere una professione, perfezionarne le tecniche, affinarne le strategie, bensì in quello di una costante e consapevole disponibilità a sovvertire le proprie competenze specifiche e a riciclare le proprie attitudini generiche, in un ricorrente altalenarsi tra occupazione, inoccupazione, formazione. Al rischio, alla flessibilità, alla mobilità che a questa disponibilità conseguono corrispondono sia l’indebolimento dei legami collettivi, sia la costituzione di esperienze reticolari che compongono la costituzione dei soggetti.

Fordismo

Vedi anche
CATENA DI MONTAGGIO – FORD – O. S.L.

Concetti e parole chiave
Consumo di massa – Controllo gerarchico – Meccanizzazione – Parcellizzazione

Spiegazione
Il termine FORDISMO definisce comunemente non solo una specifica modalità di organizzazione del lavoro ma anche un vero e proprio stadio del capitalismo contemporaneo, durato quasi un secolo e caratterizzato da sistemi di produzione basati sui principi della ORGANIZZAZIONE SCIENTIFICA DEL LAVORO, dall’adozione di processi di meccanizzazione spinta del ciclo produttivo (iniziata con l’introduzione della CATENA DI MONTAGGIO), dalla diffusione di modelli di consumo di massa.
L’approccio fordista all’organizzazione della produzione trova la sua prima applicazione nel 1913 all’interno della società automobilistica creata a Detroit da FORD.
I posti di lavoro individuali con mansioni di montaggio dell’intero prodotto vengono sostituiti da una gigantesca linea di montaggio e di assemblaggio lungo la quale ogni lavoratore, ricevendo il semilavorato dal compagno precedente, vi monta un componente, a mezzo rotaie lo passa al compagno successivo, e così via fino al montaggio completo. FORD ottiene così una riduzione media di circa il 40% del tempo di montaggio di ogni pezzo (con punte del 75% raggiunte con l’introduzione dell’energia meccanica e il miglioramento delle altezze delle linee stesse).
Insieme alla predeterminazione dei tempi di lavoro e alla parcellizzazione dei suoi contenuti il terzo aspetto fondamentale del modello fordista è rappresentato dalla struttura gerarchico burocratica che governa l’azienda, mentre un ulteriore elemento di novità è dato dal fatto che con il FORDISMO i lavoratori non sono più soltanto un importante fattore della produzione ma anche i consumatori dei prodotti finali che aziende sempre più avanzate dal punto di vista tecnologico immettono sul mercato.
E’ la combinazione tra la produzione di serie, resa possibile dal progresso tecnico, e il consumo di massa a determinare il successo del FORDISMO, una svolta senza precedenti nella società americana, l’avvento di quegli anni ruggenti che in anticipo di qualche decennio rispetto a quanto avverà in Europa, farà sì che in molte famiglie operaie degli Stati Uniti beni come l’automobile, la radio, gli elettrodomestici diventino di uso comune e che il livello di istruzione di base diventi decisamente più alto di quello di ogni altra parte del mondo cosiddetto avanzato.
Questo straordinario esperimento sul campo darà lo spunto a John Maynard Keynes per formulare negli anni Trenta le sue teorie sulla crescita della domanda come stimolo alla produzione e il mantenimento di buoni livelli di consumo come antidoto alle crisi economiche.
Se il richiamo alla rivoluzione industriale sottolinea un fenomeno storico e un sistema che ha segnato una profonda frattura rispetto alla sostanziale continuità storica delle società agricole, tale da essere paragonato per rilevanza solo alla rivoluzione del neolitico, il FORDISMO mostra gli sviluppi dell’industrializzazione nella sua piena maturazione. Non a caso, nonostante il suo carattere estremamente rigido tanto dal versante produttivo che da quello organizzativo e delle condizioni di lavoro, il modello fordista è stato assolutamente dominante fino agli anni 70, quando la crisi della azienda, i repentini cambiamenti dei contesti ambientali, i mutamenti indotti dall’utilizzo di informatica e robotica determinano la necessità di privilegiare forme organizzative molto più flessibili, all’interno delle quali l’autonomia, l’intercambiabilità, la capacità di decidere di chi lavora diventa un fattore sempre più rilevante per il buon andamento dell’impresa.