Archives For The Dot

La bravissima Eleonora Bianchini di Blogosfere.it ha fatto più che un reportage dal World Business Forum: un live blogging continuo e ricchissimo di video, spunti e informazioni. Mi ha anche fatto un paio di domande su cosa pensassi dell’iniziativa Blogger Hub e in generale del Forum, e ho risposto nel video qui sotto.

Dell’Internet. Un’assenza

dottavi —  31 August 2009 — 1 Comment

Agosto 2009. I quattro cormorani appoggiati su uno scoglio ricordano stridenti un vecchio cartone animato della Disney, mentre con @marcomassarotto attraversiamo la pineta e i cespugli di mirto per scendere al mare. Si chiacchiera di amici e conoscenti, di cosa fanno le persone in Rete, di potenzialità e sviluppi possibili dei Social Media, di Cosa Farebbe Google (lui), di Storia della Tecnologia (io), di cosa come e quanto si potrebbe fare la prossima stagione. Così per ridere – siamo in vacanza – rifondiamo intere branche della medicina, immaginiamo nuovi mercati, troviamo nuovi modelli di giornalismo online, inventiamo nuove discipline.

Nel frattempo, tra un relax in amaca, passeggiate, windsurf e un bel po’ di frutta fresca, Facebook si compra FriendFeed, dove tra gli italiani impazza il Giocone e si scoprono le user-generated demographics (nel prossimo post, domattina), Queen Rania compare su Twitter e insomma ne succedono di tutti i colori.

Al rientro non posso trattenermi da un giro in libreria, un punto vendita di una grossa catena. Cerco di capire meglio cosa ci siamo detti con Marco, che è un vulcano e con la sua Hagakure altro che Internet PR, non si riesce a stargli dietro. Non guardo tanto i libri quanto le categorie, come si colloca la conoscenza di questi argomenti in Italia. In fondo al corridoio lo scaffale di Sociologia, c’è Cybersoviet di Carlo Formenti a fianco di Italians di Beppe Severgnini.

Passo allo scaffale di Informatica, pieno di manuali con copertine color detersivo. Alla sua destra Mass Media, dove i titoli parlano di radio e tv, tv e radio. Un po’ di giornalismo, solo relativo alla storia del mestiere e dei giornalisti, niente analisi. Guardo a sinistra, c’è lo scaffale di Antropologia. E’ qui che dovrebbe trovarsi Intelligenza Collettiva di Pierre Levy ma niente da fare, lo cerco da tempo ma è esaurito, anche se è uno dei fondamenti critici per l’interpretazione dei tempi in cui viviamo.

Servono nuove scienze e nuove arti, penso. Allargo lo sguardo e vedo che lo scaffale di fianco ad Antropologia è quello di Esoterismo. Più a sinistra New Age e Medicina Alternativa. Solo allora mi accorgo della musica: in sottofondo squillano beffardi gli ottoni di George Gershwin, è la colonna sonora di Manhattan. “Internet è la mia città, e sempre lo sarà”, penso, mentre mi avvio verso l’uscita.

Sono in chat con l’amico e partner Nicola Jr. Vitto con cui, da qualche mese, si sta sviluppando un progetto. Si è martellata un’idea fino a tirarne fuori un nocciolo, poi via a strutturare documenti, studi, scenari. Ora è arrivato il momento di scrivere codice, e dall’America ci arriva notizia di un servizio praticamente uguale, appena rilasciato da un grande gruppo. Bella botta.

Non ci facciamo scoraggiare, anzi si affila il martello e si picchia di più. L’innovazione sul Web funziona così. Però mi è venuto da chattargli che “Il problema di essere due anni avanti rispetto all’Italia è che sei un anno indietro rispetto alla Silicon Valley”. Prima l’ho scritto e poi la frase mi ha colpito. Doppio problema: qui sei avanti rispetto al mercato, quindi ti ci vuole un doppio, triplo motore. E mentre perdi tempo a spiegare che il Web è importante, di là dall’oceano vanno come proiettili.

Mi è anche tornato in mente uno scambio di mail di un sacco di tempo fa, con l’amico e partner Luca Galli. Gli raccontavo che mi stava scadendo il dominio Videowiki.it, che era un’idea che avevo per raccogliere i video degli utenti dai cellulari etc etc. Vado a riprendere il messaggio e di quand’è? Del luglio del 2006. In quel momento tornavo dalla conferenza stampa di DailyMotion, ma avevo registrato il dominio nel luglio del 2005. Allora mica sapevo ancora che esisteva YouTube: erano partiti da pochi mesi. Di seguito lo scambio con Luca – è lui che dice “Se avessimo 3 phd in computer science e un garage in silicon valley sarebbe da mettersi lì subito e vedere di fare l’alpha version”, in fondo qualcosa che ho imparato.

—–Messaggio originale—–
Da: Luca Galli [mailto:lgalli]
Inviato: giovedì 6 luglio 2006 12.55
A: dottavi;
Oggetto: RE: 21065046-Dominio in scadenza : videowiki.it

non so bene cosa facciano questi che dici [DailyMotion, ndr], ma se la tua idea era quella di interpretare sul video i principi e i meccanismi dei wiki allora sarebbe sec me molto nuovo e molto bello

intendo, se le logiche di collaborazione distribuita, orizzontale, bottom-up, accesso controllato ma estremamente aperto, capacità di elaborazione con curva di apprendimento quasi a zero (su un utente in grado di usare apps standard) ma anche feature avanzate per esperti o “redazioni” (wikipedia ha una rete intera di redazioni…) etc etc, che a oggi sono disponibili sul testo come media (ragion per cui i wiki han fatto quel che han fatto bla bla), tu le volessi applicare al video come media, e sempre ammesso che questa cosa non esista già, allora di sicuro lì uno potrebbe pensare di mettere in piedi proprio una cosa nuova, una piattaforma o un motore disp online, e lì sopra una tipica start up 2.0 etc

in realtà il movimento di wikipedia è già attivo sui media dico a memoria su tutto il fronte dei repository audio video licenziati con creative commons o altri schemi open. non sono sicuro appunto che ci sia quel che stavo cercando di dire sopra e che se ho capito il senso del nome che avevi in mente tu

chiaram poi ci sono tutti i vari videoblog etc ma in realtà quel che manca lì sec me – e c’è invece nei blog standard, che sono centrati sul testo di nuovo – è proprio la possib di collaborare e manipolare assieme i contenuti…

se avessimo 3 phd in computer science e un garage in silicon valley sarebbe da mettersi lì subito e vedere di fare l’alpha version

> —–Original Message—–
> From: Alberto D’Ottavi [mailto:dottavi]
> Sent: Thursday, July 06, 2006 11:50 AM
> To: lgalli;
> Subject: I: 21065046-Dominio in scadenza : videowiki.it N°
>
> Un annetto circa fa avevo registrato questo dominio. L’idea
> era raccogliere video dagli utenti, meglio se dai cellulari
> facendosi sponsorizzare dalla Nokia o TIM della situazione
>
> Opera decisamente improba per le mie forze :D ma mi fa
> piacere che l’idea era giusta – l’altro ieri conferenza
> stampa DailyMotion, oltre a rafforzare le presenze locali
> stanno facendo accordi con gli operatori per raccogliere i
> video via UMTS. Già attivi in Francia, qui stanno discutendo
> con TIM. Prob idea simile avevano anche quelli di Splinder
>
> Secondo voi ce ne facciamo qualcosa? Come business direi di
> no, però ritengo sempre importante fare dei mock-up, delle
> bozze di progetto… Secondo me bisogna lavorare sui vertical
> …
>
> Bah voi che ne pensate? Direi parliamone alla prossima birra,
> io ho novità
>
> Cheers
> Alberto
>
> —–Messaggio originale—–
> Da: comunicazioni@staff.aruba.it [mailto:comunicazioni@staff.aruba.it]
> Inviato: mercoledì 5 luglio 2006 3.52
> A: dottavi
> Oggetto: 21065046-Dominio in scadenza : videowiki.it N°
>
> Gentile Cliente,
>
> lo Staff di Aruba le comunica che il dominio www.videowiki.it
> è in scadenza il giorno: 18/7/2006 ,con tutti i servizi ad
> esso associati.

Mettete volentieri una parolaccia in questo punto. Mannaggia a me. Perchè non abbiamo fatto noi YouTube nel 2005? Cosa ci manca? Be’ sì certo, le competenze. E poi la tecnologia, il mercato, il network, la semplificazione della burocrazia, etc etc. Ma l’aspetto più importante che mi viene in mente è la fiducia. Devi crederci. Devi pensare di potercela fare. In Italia non è così. Non sei educato così. Ricordate Papaveri e papere? Ecco.

Ieri mattina Mantellini ha dedicato i suoi Contrappunti al tema delle news a pagamento. Più o meno dice che le news in Rete hanno una loro specificità di comportamento, e sono “Un bene fortemente deperibile”. Discutibile per un argomento essenziale – i contenuti in Rete non muoiono mai, passano dall’attualità alla storia – però segna un punto: le notizie per loro natura fluiscono, sono uno stream. Proprio come quello di Twitter o Facebook, aggiungo io. Così la tempestività e l’ubiquità della Rete offrono ai giornali uno spiraglio per prendersi una rivincita sulla TV e su Google: è la prospettiva del Real Time Web. E’ già in Wikipedia (ma vedi anche).

Quest’idea mi si è collegata con una conclusione apparentemente opposta di un post dell’altro giorno di Marco Formento. Parla del “Costrutto complesso” di un giornale di carta, di come debba essere ripensato del tutto, e termina dicendo che è necessario “Vestire da giornali i notiziari online”. Un’esigenza di aspetto grafico? Anche, ma credo molto di più. Allego a questo proposito il seguente video (via Alberto Mucignat) del designer Jacek Utko, che racconta come abbia risollevato il business dei giornali per cui ha lavorato tramite redesign. Che non è solo grafica ma parte dalla strategia, attraversa i processi e arriva alla riprogettazione, soprattutto, dell’esperienza.

Flusso, design e Web. Su quest’ultimo ha scommesso Tina Brown, già editor of di Vanity Fair e The New Yorker e ora editor-in-chief di The Daily Beast, un super-blog stile Huffington Post, che in questa intervista (trovato sulla pagina Facebook di Venice Sessions) afferma: “I’d always seen myself as a magazine journalist. But having done the Daily Beast I can see the excitement and the opportunity that there is in online. There’s an enormous amount of energy on the web”. E’ vero, sono in perdita. Ma contano di guadagnare presto, perché la pubblicità arriverà. E forse, per altri settori editoriali, arriveranno anche altre forme di contribuzione, come dice Fred Wilson.

Insomma, inutile continuare a pensare a un futuro dei giornali basato sulle restrizioni del presente. Più importante capire e progettare come devono diventare, e poi trovare il modo di realizzarli. Come dico da un po’: se si vuole innovare, il minimo è fare in modo che il futuro sia diverso dal presente.

Uh-oh. Mentre a Oxford, UK, si svolge il TEDGlobal, riscopro questo video dimenticato nelle bozze. Doppio imbarazzo, perché è del giugno scorso e perché mi rendo conto solo ora che Shirky, di cui ho iniziato a leggere solo recentemente, è il mio Personal mogul: sto sviluppando esattamente lo stesso approccio. Innovazione tecnologica dei media in prospettiva storica, la Rete come unico strumento che abilita la comunicazione di gruppo, etc. Peccato non aver pubblicato in tempi non sospetti, anche se ne ho parlato pubblicamente il febbraio scorso, in questa occasione. Mi consolo con la notizia appena ricevuta dell’uscita, prevista per settembre, degli atti del Simposio New Media Art Education & Research 2009 di qualche tempo fa, dove sarà pubblicato il papelito del mio contributo su questi stessi temi.

(video trovato via Stalkk.ed)

Il Wall Street Journal l’altro giorno titolava The Internet Is Dead (As An Investment), sostenendo che non vale la pena di investire in titoli “digitali”, meglio guardare altrove. Non potrei essere più d’accordo, ma – paradossalmente – per motivi opposti a quelli dell’autore. Certo, se sei solo uno speculatore finanziario e pensi alle aziende Web come occasione per un “mordi e fuggi” (ma lo chiamerei piuttosto “ruba e ammazza”) con ritorni del 1.000%, tasso citato nell’articolo, non solo non ti conviene ma per favore stai lontano, evita. Sei solo “droga” per il mercato, e i danni che hai fatto nel primo giro ce li ricordiamo bene.

Se invece sei un potenziale investitore che si può permettere di guardare al di là del proprio naso, non sei angosciato dalle trimestrali o dal fare a tutti i costi il budget annule dal quale dipende gran parte del tuo stipendio (situazione piuttosto comune non solo negli Stati Uniti, ma in qualsiasi società finanziaria, almeno fino a un po’ di tempo fa), ragiona un attimo. Dove sta andando l’industria – qualsiasi industria? In quanto valuti l’impatto della trasformazione digitale in atto? Certo, ci vorranno magari tre o cinque anni. E, certo, Internet e il Web sono un business tutto sommato piccolo, in ambito tecnologia. Ma non secondario.

Così anche Fred Wilson, “VC and principal of Union Square Ventures” in The Internet Is Alive And Well (As An Investment):

We think the Internet is one of those transformative technologies that changes everything. We see it like the industrial revolution or the invention of the printing press. It is a huge game changer. The Internet has been a commercial technology for about fifteen years now. And we are beginning to see the impact of it on everything around us. The industrial revolution and the Renaissance before it lasted a century or more. It takes a long time for such fundamental changes to work their way through the system and produce a new “normal”.

Lo cita con enfasi passionale Garry Tan – il che non stupisce, visto che è il fondatore di Posterous. Technology is not dead. It is exponential:

The exponential march of software begets the exponential march of software capability. Software has gone more and more high level. Instead of slinging machine-readable bits, we started writing assembly. Then C/C++. Then Java and Perl. Now, Ruby and Python — each step is less efficient for the computer but more efficient for the human. In 1946 you needed a PhD to even get near a computer, and only now are we seeing the rise of the truly interconnected, paperback computer that costs next to nothing but is indispensible for everyday life — not just for an educated elite but for every person on the planet.

Estende il ragionamento al computing in generale, ri-pubblicando il noto schema della Legge di Moore (vedi anche), ma spostando l’attenzione sul software:

Moore law

Ci si dimentica davvero troppo spesso che software e hardware sono essenzialmente la stessa cosa. E che quello che prima vedi come un programma complicato prima o poi te lo trovi in tasca come oggettino da pochi dollari. O, viceversa, che quello che ora vedi come funzione cablata in un oggetto, prima o poi te la trovi trasformata in semplici bit – vedi per esempio il numero di telefono di Google. E, se diventa bit, è ovvio o no che finisce in Rete? Non c’è niente di virtuale, in questo. E’ pura industria. Ripeto: Virtuale sarà lei.

Ieri c’è stato il cosiddetto “Sciopero dei blogger”. Riuscito, stando a quanto racconta Alessandro Gilioli, promotore dell’iniziativa insieme a Guido Scorza che ne racconta qui. Si chiedeva di astenersi dalla pubblicazione: uno sciopero il cui intento era, ovviamente, di essere molto rumoroso, e forse c’è riuscito. Certo il tema è cruciale, e ben sintetizzato dal nome del network creato su Ning: Diritto Alla Rete.

diritto alla rete

In Blogosfera ci si è persi a cavillare se era meglio parlare o non parlare, perdendo di vista, credo, il tema cruciale, che è il DDL Alfano. Che potrebbe avere conseguenze ben più ampie e gravi, tra l’altro: vedi l’Ansa di ieri sulla Bocciatura del decreto da parte del Consiglio Superiore della Magistratura.

Ora, io il decreto ho provato a leggerlo ma interpretarlo, purtroppo, è superiore alle mie forze. Comunque è qui, e al punto 28 compare quanto riguarda i “Siti informatici”. Mi chiedo cosa si intenda: anche una batteria di server di una banca (o whatever) è un “sito informatico”. Anche un Bancomat lo è. Anyway: resta il fatto che assoggettare la Rete tout court a controlli è sia impossibile sia controproducente, come è già stato sottolineato in altri casi (2007 e 2009, almeno).

Come dicevo, non sono tecnicamente in grado di capire bene i termini di legge. Però ho letto gente che un pochino di Internet ne sa. Come Tim Berners-Lee, che il Web l’ha inventato, e che a pagina 147 del suo Weaving The Web (la mia è l’edizione inglese della Orion Business Books, non so equivalente italiano) dice:

Laws must be written in relation to actions, not technology

Mi sembra una sintesi efficace e risolutiva.

PS Vedi anche: Articolo 21 della Costituzione Italiana.

Virtuale sarà lei

dottavi —  10 April 2000 — Leave a comment

A seguire il testo di un editoriale pubblicato su PC World, di cui ero, ai tempi, caporedattore. E’ dell’aprile del 2000.

Che qualcosa stesse bollendo in pentola si è capito già la mattina di lunedì tre aprile, quando è arrivato un comunicato stampa Microsoft secondo il quale l’azienda avrebbe fatto “tutti gli sforzi possibili per risolvere il caso antitrust”. Il sospetto è stato confermato nelle ore successive, quando si è appreso che durante il weekend la trattativa tra Microsoft, il Dipartimento di Giustizia e i 19 stati americani si era rotta senza accordi. La sera dello stesso giorno si sarebbe saputo, infatti, che Microsoft era stata riconosciuta colpevole dall’ormai famoso giudice Jackson.

Apriti cielo. Crollo del titolo, con conseguente flessione dell’intero Nasdaq, il mercato borsistico dei titoli tecnologici. Terrore e panico: i catastrofisti non aspettavano altro per gridare ai quattro venti che i titoli tecnologici erano sopravvalutati, che un grande “crash” (vedi la copertina di Panorama di venerdì sette aprile [2000]) si sarebbe abbattuto sugli investitori, attratti dai facili guadagni della “new economy”, descritta più o meno come la “grande bufala” del nuovo millennio.

Due osservazioni. Dal punto di vista tecnico, scopo di questa pagina, non possiamo far altro che ricordare ciò che è stato già scritto sul numero di dicembre 1999 di [la rivista per cui lavoravo allora]. Bisogna porsi la domanda “di che cosa è stata considerata colpevole Microsoft”? La risposta sta all’indirizzo http://usvms.gpo.gov, dove si trovano le conclusioni della corte. Pagina due: “la Corte conclude che Microsoft ha mantenuto il suo potere di monopolio con mezzi anticompetitivi, e ha tentato di monopolizzare il mercato dei browser web”. Più chiaro di così: il problema non sta nel fatto che “il 95 percento dei computer del mondo” (citazione da un quotidiano nazionale) usa Windows per operare. Il problema è che Microsoft ha usato la sua posizione di predominio nel settore dei sistemi operativi per conquistare posizioni privilegiate anche in altri settori. Il browser web è solo l’ultimo esempio, ma altri sono le applicazioni per ufficio (Office), e prima i linguaggi di sviluppo, eccetera. Storia nota, per chi ha operato davvero nell’informatica negli ultimi dieci anni, almeno, e non solo ultimamente.

Questo è il secondo punto: chi opera in questo mercato da tempo non si stupisce per l’andamento dei titoli Internet, anzi. Finalmente l’informatica inizia ad assumere il ruolo che le spetta. Internet è stata la “killer app” che ha scatenato l’effetto volano, ma non è che l’ultimo effetto dell’utilizzo dei sistemi informativi non come semplice supporto (modello “calcolatrice”), ma come strumento che mette in grado di concepire nuove e rivoluzionarie forme di business. Sorpresi per Tiscali? Eppure è proprio Elserino Piol, uno dei principali venture capitalist del settore, a ricordare che oggi il mercato della telefonia fissa è valutabile intorno ai 46 mila miliardi, ma che è previsto che arrivi a 60 mila nel 2004. In Italia la liberalizzazione è recente: è chiaro che l’inizio sia avventuroso, nel momento in cui i nuovi operatori possono affacciarsi sul mercato. L’andamento è destinato a diventare più calmo, sì, ma non per questo tutto sparirà come una bolla di sapone. Useremo il telefono anche in futuro, credo. O no?

L’importante è quindi non farsi prendere dai facili entusiasmi, nella buona e nella cattiva stella. La condanna a Microsoft è solo la condanna a Microsoft, non a tutta la new economy. E se è vero che non basta che un’azienda abbia “Internet nel titolo” per qualificarsi, è ancora più vero che in questo settore operano aziende che da anni creano, cablano, programmano, installano e sostengono i sistemi informativi della cosiddetta “real economy”. Come credono, gli scettici, che vengano gestiti gli ordini del petrolio, delle automobili, delle materie prime, e così via? Con un bloc notes? O non piuttosto con dei megacomputer operanti 24 ore su 24? Internet è fatta della stessa pasta: reale come il silicio.

Quello che segue è il testo di un ipotetico editoriale che ho proposto, nel 1997, a PC Magazine, dove ero redattore. Un altro caso di rimbalzo :D

La scelta del posizionamento della capacità elaborativa, se al centro o alla periferia, sta diventando un incubo. E’ più importante la capacità di memorizzazione o la larghezza di banda?

E’ notte, una terribile notte afosa d’estate, mi rigiro più e più volte nel letto, sudato e perseguitato dagli incubi: devo comprare un PC o un network computer? Quale strategia scegliere per il rinnovamento dei sistemi informativi nella mia azienda? Dove devo mettere la capacità elaborativa, al centro, alla periferia o dove? Il sonno non porta consiglio, così mi alzo e vado in cucina per una bibita. Arrivo davanti alla nuova apparecchiatura appena installata, la sete si fa insopportabile, per fortuna ora la bibita che preferisco arriva, attraverso un complesso sistema di innovative tubazioni, direttamente da uno spillatore che ne assicura la freschezza. Posiziono il bicchiere, premo il pulsante, si accende uno schermino a cristalli liquidi che dice “Host contacted, waiting for reply…”. Aspetto tamburellando nervosamente, controllo il bicchiere, ho la gola sempre più secca, tutto sembra funzionare ma non arriva niente… OK, spengo l’apparecchio e bevo dal rubinetto. Domani mi compro un PC.

Il sonno della ragione
La mattina dopo, ancora un po’ cisposo per la pessima nottata, mi precipito dal mio rivenditore di fiducia, e sono ormai del tutto convinto che il potere va alle periferie, che la connessione sia come un brutto cordone ombelicale dal quale è necessario definitivamente affrancarsi, che non solo la potenza di calcolo, ma soprattutto la capacità di registrazione e memorizzazione dei dati deve sempre essere a portata di mano (a proposito, devo anche ricordarmi di ordinare delle batterie solari e un frigorifero nuovo).

Per strada ripasso quello che ho sentito dire negli ultimi anni, soprattutto sulla stampa specializzata (se lo dicono loro!): le aziende si fanno più piccole e flessibili e la forza lavoro diventa più attiva, responsabile e coinvolta nei processi produttivi, quindi c’è bisogno di maggior capacità elaborativa sulle scrivanie di ognuno. Eh già, dev’essere così, altrimenti perché si sarebbe fatta tutta questa bagarre sul downsizing, al limite si può sempre implementare un qualche modello client / server per assicurarsi un percorso di crescita verso l’alto. Se ne è parlato tanto, ormai funzionerà. Però è vero che è importante anche la comunicazione, anzi, più si è piccoli più è importante essere in grado di conoscere e farsi conoscere, come la chiamano?, globalizzazione, sì. Va be’, però i costi dell’infrastruttura per ora sono ancora proibitivi, e le prestazioni non convincenti. Sì, sì, meglio aspettare, compro un PC e un collegamento a basso prezzo a titolo sperimentale.

Così confortato entro finalmente nel negozio, trovo un commesso libero e gli dico: “Buongiorno, vorrei un PC”. “Perché?”, mi risponde. Rimango completamente spiazzato, e anzichè rispondergli in malo modo (il che d’altronde non sarebbe stata una buona idea, bisogna sempre tenerseli buoni sennò ti rifilano il bidone) lì per lì non so cosa dirgli, non posso mica raccontargli tutta la storia, ragiono febbrilmente e in un decimo di secondo mi viene in mente un concetto imparato all’università, col test di Turing e tutta quella roba, così dico: “Perché è una macchina generale”.

Non l’avessi mai fatto, i commerciali hanno sempre la risposta pronta: “Ma lei cosa ci deve fare?”. Sto per dirgli di farsi i fatti suoi e di incartarmi un Pentium che qualcosa da farci lo trovo quando entra un mio caro amico con uno scatolone che sembra proprio un computer. “Cosa fai?”, gli dico, “Porto indietro il PC che ho comprato ieri e mi compro un network computer”, mi risponde. Alè, ci mancava solo questa. Mi faccio spiegare le motivazioni e mi racconta che lui era stato costretto a comprare “qualcosa” perché il figlio doveva fare una ricerca per la scuola, si era informato e la cosa migliore gli era sembrata un’enciclopedia su CD-ROM, però poteva leggerla sia su PC che su NC, però aveva scelto il PC pensando che così poteva fare anche un sacco di altre cose, “tanto è una macchina generale”. Sento una fitta sotto le costole. Dopodiché, è il colpo di grazia, mi racconta che ha passato una notte insonne cercando di installare, montare, configurare, ottimizzare, ripulire la diabolica macchina, riuscendo alla fine a leggere il CD ma scoprendo troppo tardi che si trattava di una versione vecchia di ben sei mesi, quello che serviva al figlio non c’era. Mi tremano le gambe e sento una lacrima offuscarmi la vista, mi precipito fuori dal negozio e inizio a vagare, a caso. Maledetti giornalisti, e maledetti anche i commerciali.

In medio stat virtus
Cerco di radunare le idee, però non trovo un criterio che mi permetta di decidere fra il PC in casa, il network computer in ufficio o viceversa. Giro in un vicolo e vengo assalito all’improvviso da un matto che cerca di spaventarmi aprendo l’impermeabile, foderato di dischi fissi. E’ un EDP manager rovinato dagli incubi del system management e dell’upgrade del software o un nerd che non sa più con cosa sviluppare? Mentre il personaggio si allontana ululando all’improvviso capisco. E’ lui, è l’utente che conta. Conta chi fa che cosa, e come. E in effetti il fatto di avere un’ampia possibilità di scelta è una possibilità in più e dovrebbe farmi piacere, piuttosto che spaventarmi.

Il problema tecnico si sposta sul fronte della standardizzazione, perché comunque i protocolli, i formati di comunicazione e dei dati, eccetera, devono essere compatibili per tutti in modo da assicurare l’interoperabilità pressoché assoluta. Le aziende produttrici della tecnologia si confronteranno anche su questo piano, cioè se saranno disposte a farlo o meno.

Il problema organizzativo invece diventa la realizzazione di un accurato studio delle necessità elaborative aziendali quasi scrivania per scrivania, cioè del corretto bilanciamento dell’hardware rispetto alle applicazioni che le varie scrivanie devono utilizzare.

Credo siano questi i due principi che devo tener presente per decidere come aggiornare il sistema informativo, però all’interno di un criterio di base più ampio che è proprio quello che unisce il network computer al PC, una volta di più dimostrazione che sono spesso le idee semplici (ma non banali) quelle che hanno la maggior forza esplicativa: chi – fa – cosa, cioè le persone e i dati, ergo, le applicazioni. Sono questi i veri patrimoni di un’azienda, e sono quindi questi i punti di partenza per valutare il problema.

Se una stazione di lavoro opera su stralci dei dati centrali, quindi con scarse esigenze di connessione se non per qualche sessione che si può magari continuare a effettuare di notte in modalità batch, per crearne elaborazioni particolari tramite foglio elettronico e/o word processor, questa stazione ha bisogno almeno di un disco fisso, quindi di un PC, la complessità del quale dovrà essere definita rispetto alle capacità di chi lo usa, se cioè la persona ne sfrutta appieno le potenzialità. In tutti i casi in cui i dati sono personali, vince il personal computer.

Se invece una stazione vive sostanzialmente solo quando è connessa, operando continuamente su dati remoti, come gli sportelli bancari o dell’amministrazione pubblica o ancora come una certa forma di editoria elettronica che è ancora un po’ in là da venire, quello che conta è la banda, non il disco fisso, e la banda nelle reti locali c’è già, quindi vince il network computer.

E in casa decide di nuovo il “chi fa cosa”: se si sa usare il computer e si vuole lavorare anche off line (dai giochi a qualsiasi hobby), il PC va e andrà benissimo. Se non ci si vuole crucciare su configurazioni e upgrade e si desidera un’interfaccia semplice e immediata, il network computer è quello che serve.

In fondo è il concetto esplicitato dalla macchina di Turing a fare da spartiacque, cioè quello di macchina generale. Una macchina generale va bene per fare tutto, però è complicata; una macchina specializzata può fare poche cose però è semplice. Tra il PC e il network computer “estremo” ci stanno tutti i sapori che l’industria sarà in grado di darci, e tra i quali potremo, dovremo scegliere.

Le precedenti riflessioni sono basate su documentazione e incontri con: Oracle (incontro con Sunir Kapoor, vice presidente strategic marketing, e conferenza del 5 giugno a Milano con Larry Ellison), Microsoft (strategia Internet, server e Simply Interactive PC), Ibm (Network Centric Computing), Apple (presentazione Pippin al convegno Mac in time, 13 giugno), Netscape.

Computer da indossare

dottavi —  9 November 1996 — Leave a comment

Il testo che segue è la tesina che ho scritto in occasione dell’esame per l’Ordine dei Giornalisti, nel 1996/97. Inutile dire che non è stato particolarmente apprezzato :)

Orologi che comunicano tramite lo schermo, organizer elettronici per scrivere e far di conto, computer tanto piccoli da poter essere nascosti nei vestiti. La tecnologia non manca mai di stupirci, e continuerà a farlo.

wearable computerProbabilmente se una decina d’anni fa ci avessero detto che molti avrebbero avuto un telefono in tasca ci saremmo quantomeno sorpresi. Incredulità simile fu incontrata anche dal presidente della Sony quando decise di creare il walkman. I suoi stessi collaboratori dubitavano del fatto che le persone sarebbero state interessate a sentir la musica in solitudine, portandosi dietro uno scomodo fagotto.
Per ripensare a un passato ancora più lontano, forse lo stesso effetto l’ha fatto anche il primo orologio da taschino. Nelle piccole città di allora, dove da qualsiasi punto si poteva vedere o almeno sentire la torre dell’orologio, che bisogno c’era di un cipollone ingombrante e rumoroso?

Ebbene, oggi l’orologio l’abbiamo tutti, il walkman quasi e il telefono cellulare ha ormai una diffusione di massa. Forse dunque non stupirà pensare che presto anche i computer diventeranno oggetti in qualche modo indossabili.

Orologi
“Mise l’orologio da polso a contatto del terminale (del computer). Lo schermo gli diede un Attendere e un istante dopo un rosso Fine, quand’ebbe trasferito all’orologio il contenuto dell’agenda. Solita routine.” Queste parole sono rimaste profetiche per non più di due anni. Risalgono al 1992, data di pubblicazione del libro di fantascienza L’uomo di Turing (Editrice Nord) di Harry Harrison e Marvin Minsky. Quest’ultimo è stato un famoso pioniere dell’Intelligenza Artificiale e ora è professore al Media Lab del Massachusset Institute of Technology, lo stesso istituto di Nicholas Negroponte.

Risale al 1994 un primo esempio commerciale di incontro fra un computer e qualcosa di indossabile. E’ appunto un orologio prodotto dalla Timex, si chiama Data Link ed è stato sviluppato in collaborazione con Microsoft, la società di Bill Gates famosa per i sistemi operativi Dos e Windows e per la suite di applicazioni Office. Digitale, oltre a presentare le informazioni su ora e data per diversi fusi orari e ad avere le solite sveglie, può ospitare brevi testi descrittivi su appuntamenti, numeri di telefono, e così via.

Per inserire tali informazioni non è necessario fare strane acrobazie con tasti minuscoli, bensì è sufficiente avere un personal computer con un programma software apposito. Per trasferire i dati immessi comodamente da tastiera basterà poi tenere a mezz’aria l’orologio davanti allo schermo. Una serie di segnali molto simili a un codice a barre in movimento verranno intercettati da un’apposita cellula nell’orologio. Ciò che nel 1992 era fantascienza, oggi è comune.

Organizer
Un più sofisticato esempio di computer da tasca è rappresentato da una nuova generazione di organizer elettronici, chiamati non a caso hand held PC, personal computer da tenere in mano. Come altri prodotti simili hanno schermo sensibile al tatto, tastiera e possono ospitare un modem per le comunicazioni via telefono (anche cellulare), ma presentano una novità particolarmente importante in questo settore. Si basano infatti su un adattamento di Windows, chiamato Windows CE (Consumer Electronics o Compact Edition). Seguono perciò gli standard tipici dei computer, sia per quanto riguarda l’interazione con l’utente, sia per le applicazioni utilizzabili sia infine per le capacità di interscambio dei dati.

Sono presenti versioni ridotte dei programmi Microsoft per scrivere e calcolare (Pocket Word e Pocket Excel), così come un programma per gestire le informazioni personali come indirizzi e numeri di telefono. Inoltre è possibile accedere a Internet tramite il modem e utilizzare la posta elettronica o navigare sulla World Wide Web.

Per questi nuovi prodotti sta nascendo una nutrita serie di applicazioni, non solo da parte delle case produttrici come Casio e Philips, ma anche da terze parti specializzate in vari settori. Per fare alcuni esempi, c’è già chi offre programmi per Windows CE in grado di emulare una calcolatrice scientifica con piena dotazione funzionale, o in grado di collegarsi a un sistema Gps (Global Position System), per la localizzazione via satellite.

L’introduzione di Windows CE dunque rappresenta un passo importante perchè sposta il centro dell’attenzione dal singolo dispositivo alle applicazioni che questo può offrire. Inoltre, facilita l’accesso a nuovi utenti, poiché chi sa usare un computer con Windows 95 non avrà bisogno di imparare nulla di nuovo per usare uno di questi organizer elettronici, così come non ci sarà bisogno di imparare nulla di nuovo quando si deciderà di cambiare marca.

Il punto fondamentale comunque è che sono arrivati: oggetti piccoli e dal peso di pochi etti, in grado di assomigliare significativamente ai computer a cui siamo abituati. A questo punto il volano è in moto, e possiamo aspettarci interessanti novità a ritmo incalzante.

Computer
Nati per scopi militari ma disponibili oggi al pubblico, i personal computer da vestire si compongono di diverse parti. In genere l’unità di calcolo e memorizzazione è installata su una cintura, magari scomposta per comodità in diverse componenti collegati mediante circuiti flessibili. La tipologia di schermo più diffusa è invece un oculare fissato alla testa tramite una cuffia che ospita anche un microfono.

Il modo più efficace per controllare un computer e mantenere le mani libere è tramite comandi vocali, tecnologia ora adeguatamente evoluta anche se necessita di notevole capacità di calcolo. Altrimenti si possono usare i tradizionali dispositivi come la tastiera, visto che, una volta di più, il sistema opera tramite un normalissimo Windows. E’ dunque solo la forma a essere diversa, mentre la struttura, le componenti e le modalità di funzionamento sono in tutto e per tutto quelle dei computer.

Questi prodotti si propongono oggi per utilizzi particolari come inventari per magazzini all’aperto (per esempio i container), o opere di manutenzione che richiedono la consultazione di ampi manuali, ma non è difficile immaginare le loro possibili evoluzioni. Da una parte la tecnologia continua a produrre componenti sempre più veloci, più economici e più piccoli, migliorando sui tre fattori contemporaneamente. Dall’altra il fatto di poter realizzare prodotti standard contribuisce a mantenere bassi i prezzi e a permettere eventuali estensioni.

Possiamo infatti pensare a schermi a cristalli liquidi ancora più leggeri. Magari che si possono rendere trasparenti, e montati in modo simile agli occhiali. Aspettiamo dunque il primo simposio internazionale sull’argomento, che si terrà nell’ottobre del 1997 nel Massachussett, per vedere sviluppi e tendenze.

Domani
I prototipi allo studio negli istituti di ricerca o nei laboratori delle aziende ripropongono quel gusto fantascientifico che forse sembrava sbiadito.

Sono già in fase di sperimentazione nuove forme di interazione con i computer, per esempio tramite segnali nervosi captati con elettrodi che si applicano sulla pelle. Questo renderebbe possibile anche a chi ha gravi difficoltà motorie leggere, studiare, comunicare. All’opposto, c’è chi lavora perché il computer impari a vedere, ovvero a riconoscere tramite una telecamera i gesti di chi gli sta davanti.

Le sorprese, dunque, continueranno a non mancare.


Ordine Nazionale dei Giornalisti, Commissione d’esame di idoneità professionale, Sessione autunnale 1996
Alberto D’Ottavi