UBUNTU CONTRO WINDOWS? NON SCHERZIAMO…(edited)

No, no, amici. Non scherziamo. L´opensource non può ancora sostituire Windows e mi dispiace per quei quattro (milioni?) di sfigati che si ostinano a dire che con Ubuntu le cose cambieranno. Era dai tempi di Knoppix che non ‘davo fuoco´ ad un live-cd ed anche stavolta mi sono pentito. L´immagine è peggio dell´installazione. Otto minuti secchi di avvio con una richiesta spaventosa di risorse. Un risultato tanto modesto da non giustificare nemmeno un giudizio negativo. E non importa se è gratis. Meglio scrivere a mano e usare un piccione viaggiatore, piuttosto che la suite dei tanto osannati programmi aperti con le loro estenzioni-tonzilla. Un riguardo in pi๠lo merita Damn small Linux, invece, perchè gira pure su una chiavetta USB. Ma dovete prima chiedere permesso a BIOS e a conti fatti, mi chiedo per quale ragione dobbiamo ridurre un sistema operativo alle funzionalità  di una recovery utility. Da smanettone mi viene da installare UBUNTU su tutte le macchine e fare dieci partizioni sull’hard disk per provare tutte le distribuzioni. Da imprenditore o da incaricato della pubblica amministrazione ci penserei due volte prima di gridare all’opensource.

ubuntu.JPG UBUNTU

Nota positiva:
– riconosce al volo la stampante, la scheda di rete e i dischi rimovibili.
– crea un PDF in un secondo;
– bene anche per FTP;
– bene il dual desktop;
– bene la rimozione sicura delle periferiche con tasto destro eject;

Nota negativa:
il client di posta: importa con difficoltà  e non esporta contatti e messaggi.
– non riconosce usb wi-fi adapter;
mancata sync dei dispositivi smartphone diversi da vecchi palm;
– il file manager è ridicolo;
grub? Non si commenta;
– la dotazione sembra ottima ma in realtà  vanno installati molti programmi indispensabili e i codec: questa è la filosofia-Linux, bottom-up dal kernel. Alcune distro possono avviarsi con una iso da 50mb. Il resto lo scarichi e installi successivamente.
– C’è perfino MSN e SKYPE (ridicolo) ma il primo crasha e il secondo si disconnette;
openoffice è una tragedia. Duplica, confonde, inverte, cancella .doc e .xls che ti arrivano. Per salvare devi fare un passaggio in pi๠e il documento che produci è una trappola per chi lo riceve. Non c’è traccia di revisioni. I commenti sono nascosti. Le tabelle pivot non vengono riconosciute.

*** ATTENZIONE***

Questo post è stato scritto a metà  dicembre del 2006. Oggi (1 maggio 2007) con la versione 7.04 di UBUNTU, tutti i problemi che ho evidenziato in questo post, sono ampiamente risolti. Finalmente si può dire che UBUNTU è un sistema operativo assolutamente alternativo a Windows e Mac OSX 10.

L’ho installato e lo sto mettendo duramente alla prova. Per il momento funziona tutto. Ovviamente mancano alcuni driver, per i palmari ad esempio. Presto vi farò una mia recensione.

:)) Dar

Pubblicato in Generale, ICT | 45 commenti

RIPE NCC: COME GLI INDIRIZZI IP GIOCANO A TOMBOLA SU INTERNET

Su invito di un mio caro amico, ho avuto l´onore di partecipare ad un training course del RIPE NCC° di cui oggi vi racconterò. Iniziamo da una primaria differenziazione linguistica. Non pronunciate mai ‘RIPE NCC´ in italiano ma usate sempre l´accento anglofono (leggi: raip-en-si-si) altrimenti nessuno mai capirà  che stiamo parlando dell´ente che ha sede in Olanda e che si occupa dell´assegnazione degli indirizzi IP per l´Europa (ma non solo). E notate che senza l´acronimo NCC (Network Coordination Centre), il RIPE in sé considerato, è del tutto un altro ente, che fa solo da riferimento ad una specie di think tank. Come una matrioska russa aperta, quando non ha la figlia dentro ma accanto: sono a prima vista identiche ma una è pi๠grande e l´altra non vuole impolverarsi. Comunque anche lì ci sono gruppi di lavoro, si producono le idee, ci si incontra, si litiga sul da farsi ecc. ecc. Ma torniamo al RIPE NCC.
Quando voi digitate sul browser www.dariodenni.it, in realtà  state chiedendo ad una macchina di chiedere ad un´altra macchina se va ad un indirizzo che non è alfanumerico ma è a 32 bit, raggruppati in quattro numeri separati da punti (dots per gli inglesi). Vi siete persi? Rispiego. L´uomo ricorda meglio una parola che una serie di numeri. Resta il fatto che i computer non ragionano in lettere ma in bit. A far questo ci pensa il DNS (Domain Name Service) che è una specie di traduttore, l´interprete se volete, con le tabelle giuste per tradurre quello che abbiamo digitato nel browser, in un indirizzo IP. Sembra facile ma non lo è affatto, soprattutto se considerate che c´è spazio per pi๠di 4 miliardi di indirizzi. Ci vuole un criterio per organizzarli, non c´è dubbio, anche per non mandarli sprecati. Eccoci quindi arrivati al RIPE NCC che proprio di questo si occupa insieme ad altre organizzazioni che si sono ripartite le competenze con un criterio territoriale pur rimanendo funzionalmente collegate a IANA (Internet Assigned Numbers Authority).
Qui mi fermo. Infantilizzare oltre il discorso non mi sembra abbia un gran° senso. Chi fosse interessato può approfondire bene, partecipando magari agli incontri ed ai dibattiti°  su questo tema che è tanto interessante quanto delicato, perché tocca alcuni scottanti argomenti di confine, dallo spam al filtraggio dei siti illegali.

° °  RIPE Network Coordination Centre

Pubblicato in Generale, Telecomunicazioni | 6 commenti

Finchè la banda va: la neutralità  tecnologica nella rete dell’accesso

di Dario Denni

Le tecnologie che offrono un´alternativa alla Public Switched Telephone Network e che permettono l´accesso all´ultimo miglio, sono principalmente tre (ULL, WLL°  e FIBRE) e in totale cinque (PLC e CAVO). Il Legislatore europeo è stato il primo ad° introdurre il concetto di neutralità  tecnologica° per sottolineare che il mercato dell’accesso deve avvalersi° di tutte le infrastrutture che possono essere utilizzate per la fornitura del servizio. Resta il fatto che alcune piattaforme alternative sulla carta, non lo sono poi a livello economico o fisico. La neutralità  delle tecnologie rischia così di rimanere un concetto molto labile, soprattutto° se non si tiene conto dei fattori che condizionano il mercato e l’oggettiva possibilità  di potersi avvalere di queste soluzioni.
Per quanto riguarda il fattore economico, ad esempio, la creazione di infrastrutture di rete è sempre subordinata all’impiego di capitali e quindi richiede investimenti, talvolta anche notevolissimi. Non dimentichiamo che in Italia esiste un monopolio naturale di Telecom Italia sulla rete. E che quindi tutti gli altri operatori, se non vogliono duplicare la rete gettando propri cavi (FIBRE) o mettendo stazioni radio° (WLL), si trovano di fronte al bivio dell´unbundling (ULL). Anche affittare la linea (full o shared) o il servizio bistream di cui tra qualche giorno parleremo, sono scelte economiche che richiedono investimenti di capitale. Ma ci sono tante altre caratteristiche da non sottovalutare e di cui bisogna tenere conto quando si parla di tecnologie concorrenti alla PSTN. La flessibilità  all’ampliamento di piccole tratte, la capacità  ad implementare innovazioni tecnologiche, l’affidabilità  rispetto a guasti e malfunzionamenti e infine, la quantità  di apparati aggiuntivi necessari al cliente finale per poterne usufruire. Tutti fattori che complicano ancora di pi๠lo scenario e che quindi rendono impossibile la determinazione di una tecnologia dominante senza aver prima considerato lo scenario in cui essa si va ad inserire, il mercato e i suoi consumatori.

Pubblicato in Generale, Interviste, articoli e dichiarazioni | 3 commenti

Mai dire ultimo miglio: storia di un mercato inespresso

di Dario Denni

Una delle tematiche pi๠affascinanti nel settore delle telecomunicazioni è certamente quella che fa riferimento al gioco competitivo tra gli operatori alternativi e Telecom Italia, per governare la rete dell’accesso. E’ un tema caldo e sempre attuale perché da quando è iniziato il processo di privatizzazione, almeno nel nostro Paese, si è pressoché ignorato il fatto che mentre il regolatore orientava le sue scelte secondo una logica che funzionava solo sulla carta, il mercato seguiva regole empiriche sue proprie, che restano ancora valide per iniziare a porci le prime domande (Come mai l’Italia è agli ultimi posti per diffusione della banda larga?) ed ottenere le prime risposte (Perché il mercato è dominato dall´incumbent).
è vero che quando ha preso avvio il processo di privatizzazione, pi๠di quattro lustri fa, il fattore chiave del mercato non era tanto l’introduzione della concorrenza in un settore che non l’ha mai conosciuta. Incentivarla semmai, ha significato a lungo il ricorso alle teorie pi๠sorprendenti che con buona pace del legislatore nazionale, guardavano con un occhio alla legislazione straniera e con l´altro all’applicazione pratica che se ne poteva fare in Italia. Fiumi di inchiostro sprecati in slides, paper, convegni e un solo risultato.
Interi segmenti di linea che appartenevano all’ex monopolista, sono stati messi a disposizione degli altri operatori. Ma questo non per gentile concessione, sia chiaro, ma a fronte di un´offerta di interconnessione che annualmente l’ex monopolista è stato obbligato a presentare agli altri competitor.
Un fenomeno che cade sotto il nome di disaggregazione della rete locale e che per molto tempo ha costituito un valore aggiunto alla lotta al divario digitale che ostacola la diffusione della larga banda in certe aree depresse del territorio nazionale.
Chi ha vissuto da vicino questa esperienza ne conosce i risvolti e ricorda l’intenzione, buona o cattiva, di privilegiare l’accesso alla rete con una infrastruttura già  esistente anche quando tutto lasciava immaginare che solo gli operatori proprietari di rete non sarebbero stati soggetti alle dinamiche dell´affitto. In altri termini l´unbundling era la soluzione pi๠facile e di gran lunga pi๠costosa, perchè portava a duplicare la rete, senza ridurre i costi. Provare poi ad esprimere rapidamente le potenzialità  che solo la libera concorrenza sa donare allo sviluppo dei servizi locali.
Ma non è stato sufficiente aver reso obbligatoria un’offerta di riferimento annuale per sprigionare queste potenzialità  e tutt’oggi, resta inespresso un mercato che mostra solo molte apparenti contraddizioni. Sicuri segni ci dicono che il nostro Paese resta indietro in Europa per quanto riguarda la diffusione della banda larga. E questa certezza è stata validata da Ecta nel suo rapporto annuale, laddove ha denunciato con chiarezza che la paralisi del sistema italiano è dovuta all´anomalia e allo strapotere dell’ex monopolista sulla rete, come chiave dominante del mercato. Nessuno si poteva aspettare che l’incumbent offrisse gratuitamente l’accesso, ma di certo in molti auspicavano un rigoroso controllo sui comportamenti anticompetitivi, quelli che tarpano le ali alla concorrenza sulla base di offerte non replicabili. Ci sono stati, è vero, molti interventi regolamentari fondati anche sul controllo delle Autorità  di garanzia. Ma ancora oggi viene da chiedersi come sia possibile superare il fatto che per rendere accessibili risorse di rete dell’ex monopolista, si debba ogni volta far fronte al pagamento di prezzi all´ingrosso non orientati ai costi, e che perciò stesso ostacolano fortemente l’ingresso ai gestori alternativi. Ritorneremo pi๠volte su questo argomento e cercheremo di analizzarlo approfonditamente prendendo spunto dai fenomeni con cui esso confina, a partire dai nuovi servizi interattivi fino ad una valutazione pi๠compiuta della neutralità  tecnologica e funzionale della rete dell’accesso.

Pubblicato in Generale, Interviste, articoli e dichiarazioni | Commenti disabilitati su Mai dire ultimo miglio: storia di un mercato inespresso