Browsed by
Category: Misc

Me and HP: a “bare-metal” odyssey

Me and HP: a “bare-metal” odyssey

If you follow me on social media you’ve almost certainly heard of the issues I’m facing with the HP DL320 Gen8 I bought a few months back to replace my NAS and some test machines.

In term of diagnosing and solving this problem HP’s tech support has been useless so far, so in the last few weeks I’ve been digging deeper and deeper into this, and here are my findings (in logical, and not chronological, order).

Let’s start from scratch, for the benefit of who has not been following this from the very beginning: I’ve installed, tested and shipped the machine with the main drives only (Samsung 850 EVO SSD), as the capacity ones I wanted to use (SATA 2.5″, 1TB, 7200rpm) turned out not being easy to find on the market.

When I was finally able to buy 2+1 drives of the exact HGST model I was after, I screwed them to their caddies and shipped them to the colocation: when they confirmed the drives had been placed into the server, I rebooted it and configured them in a mirrored mdraid array.

Then I noticed that power consumption had gone up from 0.3 to 0.5 Amps:

The raid (re)build was still ongoing and CPU usage was high, so I just ignored this, even if even during previous spikes I had never seen such an high power consumption. To mi surprise, the morning after power usage was still 0.5A, even if the rebuild had finished hours before and load average was back to 0.0something.

With no evidence of something being wrong with the system itself, I blamed the drives (HGST HTS721010A9E630) and started researching for someone else facing the same issue with them. Nothing came out, as expected, and got confirmation from some docs that the power usage to be expected was way lower than what I was seeing.

By chance, I found some threads on the HP forums mentioning situations where non-genuine hard drives were causing “high noise”. Being unable to check the noise by myself without travelling to the colocation, I went ahead and had a look at the fans speed in my iLO, to realise all of them were running at 100%: at that stage I didn’t knew the pre-upgrade reading (now I do: 19%), but while testing it at home (in a way less controlled and warmer environment than the datacenter) I had never seen anything above 30%.

At this stage, I had finally found the cause for that huge power usage: extremely high fan speed. It was now time to try and explain the latter. First thing I checked, of course, were temperatures around the system: everything was good according to the iLO, no alarms nor criticals (not even warnings) and SMART readings were fine, with 20/21C on every drive. Nothing was explaining why the DL320 was trying so hard to cool itself down.

Then I found this article, where David described the same problem and found the perfect name for this phenomenon: Thermal Runway. Based on his description, looks like I’ve been very lucky, as other HP ProLiant servers are even shutting themselves down due to wrong temperature readings. Needless to say, my hard drives P/N were in its list of known bad ones.

Scraping the IPMI details, I found the sensor who was causing this whole thing: “05-HD Max”, which was at 58C. I’ve researched its details, and looks like it’s not a physical sensor, but rather an average of all of the SMART readings. With the temps for my four drives being around 22/23C max according to SMART, there was no way their average could have been 58C. Making things worse, this sensor has an hardcoded, non editable warning threshold at 60C.

With no clue on what to do next, I tried asking HGST if there was a firmware upgrade available (the DL320 G8 is on latest version of everything), but after 15 days, a number of emails and multiple levels of escalation they didn’t even manage to understand what I was asking for, so I decided to give up with them.

At this stage, with all the details I was able to gather I logged a support case to HP, and at the same time bought two new Seagate HDDs (ST500LM021-1KJ15), just to learn, after trying them, that they cause the same problem.

After a very honest first answer where HP’s tech support told me that the system was speeding up FANs as the drives were not recognised as HP genuine, they changed their mind and started pretending the 58C reading was real, and my drives were really running so hot.

I was lost again, and started wondering what did prehistoric people do before the cloud came, when they had this kind of hardware issues. Their first step was probably to go in front of the broken server, so I jumped on a plane and did the same.

(a picture of MY-ZA while undergoing surgery)

First thing, I was able to confirm the 58C reading was definitely wrong (as expected, anyway, but I was looking for a proof to show HP), and SMART was right: drives were super-cold, even if extracted while running. Moreover that sensor was jumping from 24C to 58C in 2/3 seconds after placing them in, which is rather hard (just think about the thermal shock).

Second, I tried to put the drives in different positions (and on a different port of the P420i RAID controller), and the issue was still there.

As last resort, I connected them to the onboard B120i HBA, and the system started working properly. Sensor 05 back to normal, drives running ok, etc. Not a good solution tough, as I’ve paid for the P420i + cache and under no circumstance I will do without it.

Fortunately, while upgrading my iLO4 to firmware 2.55, I noticed that after resetting it sensor 05 was temporarily disappearing, until the next operating system reboot. With this sensor disappearing, everything goes back to normal: fans to 30%, consumption to 0.3A, my bank account not at risk anymore.

sensor 05 has disappeared: 03, 04, … 06.

So, even if not particularly good looking and clean, I had found a solution: resetting the iLO. I went ahead and installed freeipmi, then made sure “bmc-device –cold-reset” is run 30 seconds after the system boots.

I’m still holding some kind of hope in HP support: I asked them to provide me with a way to permanently disable that sensor or raise its threshold, at my risk (read: voiding warranty).

It’s hard to describe how frustrated I am with both with HP servers, policies and support: not being able to test all existing parts and so having some “genuine” and some non genuine ones is okay, but artificially messing up a temperature reading to increase power consumption (and thus costs) and force their customers not using parts from 3rd parties can only be defined with a word: sabotage.

Giorgio

Ingegneria del Cloud Computing

Ingegneria del Cloud Computing

Glossy Blue Cloud with ShadowMi auguro di non essere più su questo pianeta il giorno in cui qualcuno istituirà il corso di laurea in Ingegneria del Cloud Computing. Se dovessi ancora essere qui quando quel momento arriverà… ragazzi, sapete cosa fare.

La scorsa settimana ho scoperto che ci sono università che offrono corsi in materia di cloud: per ora si tratta di singoli corsi, i nostri classici 10 CFU. Mi sono documentato, ho cercato i programmi, le slide ed il materiale didattico. Il risultato è stato catastrofico: ho avuto modo di notare quanto il modello di insegnamento “passivo” universitario possa impoverire i concetti. Mi rendo conto che il problema sia il modello in sè (lo confermano persone parecchio più autorevoli di me) e so anche che impoverisce ogni materia, non solo il cloud, ma quest’ultimo mi tocca più da vicino, e penso di avere le competenze per cercare (e trovare, ovviamente) il pelo nell’uovo nonchè il diritto (dovere?) di criticare.

Faccio una premessa (e vi avviso già che me la tirerò non poco). Sono sul campo dal 2006/2007: gli anni in cui venivano lanciate le prime offerte “cloud” (2/3 anni prima del vero e proprio boom). Sono di quelli che l’hanno visto nascere e crescere, di quelli che hanno fatto in tempo a chiedersi “cos’è sta roba?” e che a questa domanda hanno trovato 150 risposte diverse, che hanno visto lanciarsi sul mercato i player che oggi sono i “big” del settore, sono tra quelli che hanno partecipato alle discussioni sullo sviluppo o anche solo sul naming dei vari componenti che lo rendono possibile.

Ho visto scorrere sangue in conseguenza a domande come “Hey, cos’è il cloud?”, date le centinaia di opinioni diverse in merito. Fin dagli albori ho iniziato a intravedere i vantaggi (e le sfide) che questo nuovo modello portava, e ho subito iniziato a lavorarci (forse sarebbe più onesto dire “giocarci”, almeno per quanto riguarda i primi tempi): è stato amore a prima vista. Ci ho dedicato, in un modo o nell’altro, ogni giorno della mia vita professionale fino ad oggi, e continuo a farlo. So come si usa, so come lo si rende possibile, so perchè va usato e quando.

Ecco perchè secondo me con l’università non può funzionare:

  • Nel cloud, in tutte le sue forme (SaaS/PaaS/IaaS) ci sono ancora troppe di discussioni aperte (la definizione stessa non è univoca). C’è parecchia instabilità, su tutti i livelli: com’è possibile insegnarne una singola versione, facendola passare per verità rivelata? Com’è possibile pretendere che qualcuno impari questa “verità rivelata” da un libro, quando se ci si mettesse a studiare su Google (anche se, purtroppo, non sembra pratica comune) emergerebbero milioni di opinioni diverse su ogni singola parola? Stiamo forse nuovamente premiando chi si mette li piegato sul libro e impara tutto a memoria senza mai guardarsi intorno?
  • I professori che tengono questi corsi, a quanto ho visto, non sono esattamente dei giovincelli. Parlo di persone che hanno passato gli ultimi 20/30 anni di vita nella didattica. Questo fa di loro degli ottimi professori, ma forse non ne fa degli ottimi insegnanti per un modello, il cloud computing, che esiste si e no da 6 anni: quante ore possono averci dedicato sul campo? Zero? Forse non sono nemmeno stati in prima linea abbastanza tempo per comprendere come mai è nato, quali sono le richieste che l’hanno fatto crescere, ed in quali ambiti si colloca. Come insegnano, ma soprattutto cosa insegnano? Parlano forse per sentito dire come la peggior pettegola di paese?
  • La volatilità dei concetti è estrema: parlando in generale, e non del singolo servizio dello specifico fornitore, quello che è vero oggi potrebbe non esserlo più domani. La difficoltà nello spiegare cosa sia un’istanza cloud è enorme: chiedetemi piuttosto cos’è un’istanza Amazon EC2, che a differenza della prima è qualcosa di ben definito.

Con questa poca esperienza e con questa miriade di discussioni attualmente in sviluppo, come si può pretendere di valutare con un numero le competenze di uno studente?

Mi spiego con un esempio: 4 anni fa, lo storage a blocchi tra le nuvole era presente in due forme. Quella persistente, affidabile, ultra ridondata ma tremendamente lenta, e quello locale, più veloce ma estremamente instabile e inaffidabile. Era opinione comune che i RDBMS “classici” come MySQL e Oracle non potessero essere spostati nella cloud, perchè avidi di IOPS. Se qualcuno mi avesse chiesto di elencare le differenze tra un VPS ed un Cloud Server avrei sicuramente citato questo punto: 4 anni fa, sarebbe stato parte della definizione.

Poi le cose sono cambiate: è arrivato chi ha messo una SAN ad alte prestazioni dietro agli hypervisor, offrendo storage ridondato ma ad alte prestazioni. Amazon ha lanciato gli EBS con “Provisioned IOPS”, che permettono di prevedere e garantire le prestazioni di un certo storage. Altri player hanno messo sul mercato soluzioni SSD-based sulle quali quasi non ci si accorge di essere in un ambiente virtuale.

Nel giro di pochi mesi, la “lentezza” dei dischi è sparita dalla definizione: non era più parte del cloud. MySQL tra le nuvole è diventato d’un tratto non solo possibile ma anche ottimale. Tutto è cambiato, di nuovo. A che cosa sarebbe servito spendere 10 CFU, 300 ore di studio, per imparare definizioni che erano già predestinate a diventare superate (e quindi, sbagliate)?

Questa è per tutti una grande occasione per buttare via il modello di insegnamento verticale, che evidentemente in questa materia non può funzionare, e per comprendere la dinamicità con cui ci si deve formare in un ambiente lavorativo, in contrasto con quello scolastico.

Lasciate che ad insegnarvi il cloud siano le centinaia di persone che l’hanno fatto, e non dei professori che, mentre tutti noi traslocavamo tra le nuvole, erano in aula a spiegare.

DATAGATE: Gli USA l’hanno fatta grossa. Molto.

DATAGATE: Gli USA l’hanno fatta grossa. Molto.

obama_is_listening

Prima grazie a Snowden abbiamo scoperto che il governo USA spiava tutti gli americani. Poi qualcuno ha rettificato e abbiamo realizzato che non stavano spiando solo gli americani ma anche tutto il resto del mondo.

Una colossale figura di merda, senza dubbio. C’è chi pretende le scuse di Obama, pensando così di poter chiudere la questione. Non è così, perchè ormai è stato fatto un danno enorme: ci hanno fatto perdere la fiducia nel sistema.

Vi spiego perchè: di norma i vostri diritti sono garantiti da una specifica entità, che nel nostro caso è lo stato. Se scendete in piazza per tenere un comizio, chiunque può spararvi in mezzo agli occhi e farvi tacere per sempre, perchè non siete immuni ai proiettili. Lo stato, però, garantisce che voi possiate esprimervi: è possibile uccidervi, ma qualcuno impedisce di farlo a chi lo vorrebbe. Intercettare una telefonata, specialmente sul doppino analogico è semplicissimo: chiunque, volendo, può ascoltarvi. Lo stato, però, lo impedisce tramite leggi, punendo chi le viola. Non si tratta di limiti tecnico o teorici, ma semplicemente di “paletti”, una bella recinzione che qualcuno tiene attiva e funzionante.

I vostri diritti dipendono da qualcuno che deve garantirli: non sono diritti “intrinseci”, e se questa entità smette di farlo voi smettete di possederli. Cosa succede quando si scopre che il garante stesso ha violato i principi che avrebbe dovuto difendere? Il sistema crolla, è inutile cercare un altro garante, perchè potrebbe avere la stessa debolezza del primo: si cerca un modo di poter fare a meno del garante stesso, per far si ad esempio che la libertà di espressione e la privacy possano esistere indipendentemente dall’esistenza di qualcuno che le tuteli. Si cerca insomma un modo per rendervi immuni ai proiettili: se qualcuno vuole spararvi, che lo faccia. Voi potrete continuare ad esprimervi, perchè i proiettili non vi toccheranno.

Qui nascono le cosìddette “darknet”, reti parallele “diverse” dalla internet che voi tutti conoscete. Il funzionamento per l’utente finale è identico (per accedere a siti in una darknet si usa un normale browser, si usano un pò meno normali indirizzi e si visualizzano normalissime pagine web), ad essere profondamente diversa è l’architettura. Queste reti (Tor e I2P sono le più conosciute) sono progettate per garantire a livello strutturale anonimato, sicurezza e libertà di espressione.

Provo a spiegarmi un pò meglio: quando pubblicate un post su internet, tecnicamente è possibile farlo sparire con un click. Non è alla portata di chiunque, ma c’è qualcuno che può farlo. Se la vostra determinata opinione non piace, è facile mettervi a tacere. Tecnicamente, è anche possibile scoprire che siete stati proprio voi a scrivere quel determinato messaggio. Potete usare un proxy, ma in quel caso sarà l’amministratore del proxy a sapere chi siete, e dipenderete da lui. Non potete diventare veramente anonimi, l’unica cosa che potete fare è nascondervi, più o meno bene. La libertà che pensate sia “vostra”, dipende invece dai garanti.

Nelle darknet non funziona così: quando parlo di anonimato, sicurezza e libertà “intrinseche” nel sistema, intendo dire che il tutto è progettato affinchè NON ESISTA NESSUN MODO per sapere che siete stati proprio voi a pubblicare quel determinato contenuto. Il passo è enorme, perchè qui non dipendete più da qualcuno che vi garantisca una tutela. Anche volendo, nessuno potrebbe venirvi a prendere. Potete avere TUTTI contro, e non cambia niente: non potrebbero mettervi a tacere, perchè è impossibile scoprire dove è ospitato un certo contenuto, e sarebbe di conseguenza impossibile farlo sparire dalla rete.

A questo punto vi starete chiedendo dove stia il danno. Le darknet esistono da sempre, ma il 99.9% delle persone non pensava di averne bisogno e soprattutto non era in grado di utilizzarle. Il datagate però ha aperto gli occhi, e adesso anche la casalinga del delaware sente bisogno di privacy (del resto, non capisce perchè Obama debba intercettare e copiare la sua ricetta segreta per quei fantastici biscotti che regala ai vicini). Si è spostata l’attenzione su questo tipo di reti, la base di utenti è cresciuta esponenzialmente in pochi mesi e stanno iniziando a diffondersi su larga scala: spuntano le prime guide passo a passo, e diventa facile per tutti utilizzarle.

Vi sentite liberi. Vi sentite al sicuro. Ma c’è un problemino: nelle darknet si è tutti liberi. E quando dico TUTTI, intendo proprio TUTTI: sono tutelate le idee e opinioni diverse, ma anche quelle illegali e contro la morale. Nelle darknet non vige (e non può essere imposta) nessuna legge, c’è solo il buon senso. Che a tanti manca. Potete sfogarvi in modo anonimo contro il governo, ma qualcun altro può vendere in modo anonimo pacchi di cocaina. Potete pubblicare foto compromettenti del Marrazzo di turno, ma c’è anche chi può pubblicare materiale pedopornografico (e c’è chi può accedere in modo non tracciabile a questi contenuti). Potete parlare con la vostra ragazza senza che nessuno si infili in mezzo alle vostre fantasie, ma allo stesso modo due terroristi possono ragionare indisturbati su dove sia meglio piazzare la bomba nel prossimo attentato.

Nessuno potrà mai più ascoltare nessun altro. Quando è un algoritmo a garantire la privacy e la liberà, questo la garantisce a tutti. Indistintamente, perchè non conosce leggi. Rende inutili i garanti e li priva di quel potere di cui hanno abusato: del resto, non se lo meritavano.

A lungo termine questo cambio di rotta avrà solo effetti positivi su tutti noi. Non li avrà invece su chi pretendeva di controllarci, che adesso avrà il tempo di pentirsi per aver portato a questo: hanno esagerato e noi siamo corsi ai ripari. La facilità con cui nelle darknet girano materiale pedopornografico o droghe, è spesso usata per distruggerne la reputazione di fronte al grande pubblico e farle passare come strumenti da criminali. Quando gli stati si accorgeranno dell’enorme danno che crea (a loro) il nostro essere liberi useranno queste motivazioni per distruggerne la reputazione agli occhi del popolo e probabilmente renderne illegale l’utilizzo. Molto semplicemente, c’è chi le usa in modo sbagliato, ma per come sono state progettate (e ricordo che sono state progettate così a causa di chi ha abusato del proprio potere), è impossibile mettere al bando i comportamenti sbagliati, indipendentemente da quante siano le persone a ritenerli tali: perchè qui sta il punto, non possono esistere idee giuste o idee sbagliate.

Dovremo imparare a ragionare in modo diverso e abituarci a vivere in un nuovo mondo, perchè l’accesso alle informazioni sarà veramente illimitato. Nessuno potrà più dirci dall’alto cosa è giusto e cosa no: gli stati dovranno convincerci che raffinare cocaina è sbagliato, perchè non potranno più fare affidamento sull’impossibilità per i più di apprendere il procedimento e di comprare il materiale via internet. Sul nuovo Google si troverà anche questo.

Barack, una domanda per te: non sarebbe stato più semplice lasciar tutto com’era prima e comportarsi in modo un pò più onesto? Prima potevi intercettare tutti, e avresti dovuto farlo solo in caso di necessità. Invece ne hai abusato, e adesso non ti è più possibile intercettare nessuno. In pratica spiando i messaggini tra me e le mie amiche hai dato la possibilità al terrorista di turno di comunicare indisturbato e hai reso molto più semplice il traffico di sostanze illegali. Barack, dimmi, cosa ci hai guadagnato?

Gli operatori di telefonia mobile secondo Giorgio

Gli operatori di telefonia mobile secondo Giorgio

no_cell_phones_allowed_clip_art_16863

Spesso mi chiedono cosa ne pensi del determinato operatore o quale tra i tanti presenti sul mercato sceglierei. La rete è piena di opinioni, ma il problema di questo argomento è che molti parlano per esperienza indiretta, descrivono esperienze in ambiti geografici (o temporali) troppo ristretti, o fanno comparazioni tra dati raccoli in ere geologiche differenti.

Come avevo accennato qui, per effettuare una comparazione il più uniforme possibile, ho comprato una SIM da ognuno dei quattro operatori italiani e li ho utilizzati, testati, stressati, per più di due mesi. Non ho considerato gli operatori virtuali (MVNO), che devono essere inseriti in una categoria a parte e valutati secondo diversi criteri (tranquilli, me ne sto già occupando).

Ecco i risultati, in breve. In ordine sparso. Anzi, non esattamente sparso: mi è uscito così. Chiedete pure chiarimenti al mio inconscio. Se riuscite a trovarlo.

  • Tre/H3G – Voto: 9. Non è la compagnia telefonica più economica, ma ha piani per tutte le tasche. Il servizio clienti 133 è ottimo, le attese sono brevi e tutto ciò è corredato da una assistenza sui social network veloce (rispondono alle domande quasi prima che le voi facciate) e sempre risolutiva. La qualità delle chiamate è alta, la copertura 3G quasi perfetta: navigando in internet noto velocità e latenze ineguagliate. Tre ha un unico neo: il 3G non c’è ovunque, e dove non c’è si va in roaming GSM su rete Tim. Il costo delle chiamate non cambia, ma la navigazione si paga (salata). Sia chiaro, dove il 3G di Tre non arriva con gli altri operatori non si naviga certo a 42mbps, ma almeno le notifiche WhatsApp si ricevono.
  • Tim – Voto: 8,5. La copertura è notevole. 3G ovunque, e dove non c’è questo, EDGE o GSM/GPRS. Spesso noto picchi nella latenza e comunque velocità di navigazione abbastanza inferiori rispetto agli altri operatori. Ma parliamo di mobile, e nell’utilizzo ordinario la differenza tra 6 e 12mbps si nota solo mentre abbiamo l’app Speedtest davanti agli occhi. Il vero neo è l’assistenza clienti: il 119 è latitante, ed esclusi particolari occasioni è impossibile parlare con un operatore umano. Tim è presente sui Social Network, ma le risposte sono nettamente più lente e imprecise di quelle dei concorrenti Vodafone e Tre. Ed è così che una banale richiesta o dubbio diventa un’odissea.
  • Vodafone – Voto: 9,5. Vodafone ha prezzi leggermente sopra la media, e a differenza di Wind e Tim non ha una estesa copertura dati EDGE. La tecnologia EDGE offre velocità di navigazione superiori al GPRS nelle zone dove arriva il 3G. La rete e la copertura però tendono alla perfezione. Parlavamo di esperienze reali? Bene: essendo Tim e Vodafone a detta di tutti le compagnie con la copertura migliore, le ho affiancate per un mese. Il cellulare Vodafone non è mai stato irraggiungibile, quello Tim due o tre volte (sempre in condizioni estreme in interni). Il team Twitter è velocissimo e organizzato, sempre risolutivo (a me personalmente hanno risolto una colossale problematica di MNP in tempo zero). E poi su, lo sapete tutti che gli operatori Vodafone sono i più simpatici.
  • Wind – Voto: 7. Wind/Infostrada è proprietaria di fibre e infrastrutture, ed ha una rete IP di notevole livello: motivo per cui dal loro reparto telefonia mobile mi sarei aspettato molto di più. Nelle mie 3 settimane “Wind” ho provato esperienze (ve lo garantisco) uniche: ho superato il record dei 10 minuti in coda al call center, mi sono trovato nell’impossibilità di navigare o telefonare con 5/5 tacche di copertura, e sempre sotto massima copertura ho visto chiamate cadere improvvisamente. Mi sono poi sentito dire dal callcenter che per risolvere questi problemi avrei dovuto chiedere la sostituzione della SIM. Di contro, quando si riesce a navigare, la velocità è alta e la latenza decente. Sembra quasi che la rete radio di accesso Wind sia uno specchietto per le allodole che nasconde dietro di sè una rete di backhaul incapace di gestire il traffico in modo adeguato. Questo, sfortunatamente, rende nulla ogni valutazione sulla copertura effettuata considerando la potenza del segnale radio: che senso ha dirvi che sono a campo pieno se poi non posso telefonare alla mamma? Dimenticavo di parlare dei prezzi: quelli sono ottimi e le offerte, spesso, innovative.

Sto chiudendo adesso adesso la porta del bunker nel quale mi sono rinchiuso per salvaguardare la mia incolumità.

Voi, scatenate pure la guerra.

Come funziona la portabilità del numero (MNP) in Italia

Come funziona la portabilità del numero (MNP) in Italia

Dall’inizio del 2013, per motivi sia personali che professionali, mi sono ritrovato a gestire parecchie MNP, ovvero pratiche di trasferimento di un numero di telefono mobile da un operatore ad un altro. Conosco bene, sia a livello tecnico che legislativo/burocratico, la normativa italiana a riguardo (nello specifico le delibere  AGCOM 78/08/CIR e 147/11/CIR) e leggendo alcuni articoli e post mi sono reso conto che si tende a fare molta confusione su questo argomento.

C’è chi parla di portabilità da effettuarsi in massimo 24 ore (Corriere, Zeusnews), chi si inventa normative e leggi tra le più improbabili e chi, è il caso di iSpazio qui, fatica anche a digerire il concetto di “ritardo”. Proprio quest’ultimo articolo, pieno zeppo di imprecisioni ed errori, mi ha spinto a perdere una buona mezz’ora di vita per scrivere queste righe.

Proverò a riassumervi come avviene il trasferimento di un numero di telefono da un operatore all’altro, cercando di non perdermi (o meglio, farvi perdere) in inutili tecnicismi. A livello normativo/tecnico per esempio viene fatta distinzione tra l’operatore e chi fisicamente ospita la sua rete: sorvolerò per semplicità su questo e su altre definizioni simili.

Torniamo a noi. Vorrei aprire con questa frase, presa dall’articolo di iSpazio:

Di fatto, dal  31 Marzo 2012 le compagnie telefoniche si sono impegnate ad effettuare la portabilità del numero nell’arco delle 24 ore

Sbagliato. La portabilità del numero in 24 ore in Italia non esiste. E non esiste non per mancanze degli operatori, bensì perchè non è ancora stata regolamentata. In altre parole, nessuno ha mai chiesto agli operatori di essere così veloci. La normativa vigente, infatti, dice tutt’altro. In sintesi, le fasi del processo sono queste:

  • L’operatore recipient, cioè quello verso il quale sarà trasferito il numero di telefono in questione, raccoglie le richieste fino alle 17 del determinato giorno lavorativo e le invia ai rispettivi operatori donating (quelli che dovranno rilasciare le numerazioni) entro le 19.30 di tale giorno. Le richieste effettuate dopo le 17 vengono considerate come fossero state inviate nel giorno lavorativo seguente.
  • Entro le 10 del giorno lavorativo successivo a quello di invio della richiesta, l’operatore cedente (donating) del numero, comunica al ricevente (recipient) l’esito (positivo o negativo) della sua richiesta.
  • Se l’esito è negativo, il recipient provvede a notificarlo al cliente. Se l’esito è invece positivo, provvede a preannunciare l’acquisizione del numero agli altri operatori e al Ministero dello sviluppo economico entro le 19 (dello stesso giorno).
  • Entro la mezzanotte del medesimo giorno lavorativo, l’operatore recipient provvede ad annunciare agli altri operatori le modifiche al proprio database delle MNP (i non tecnici vedano questo passaggio semplicemente come un perfezionamento a livello “tecnico” del punto precedente).
  • Nella fascia oraria che va dalle 6.30 alle 8.30 del giorno lavorativo successivo, tutti gli operatori provvedono all’acquisizione delle modifiche e all’aggiornamento dei propri database. In tale fascia oraria si verificheranno quindi (più o meno in contemporanea) questi eventi: l’operatore cedente disattiverà la vecchia SIM e configurerà la sua rete per consegnare le chiamate dirette verso tale numero al nuovo operatore: quest’ultimo passaggio verrà effettuato anche da tutti gli altri operatori, quelli non coinvolti direttamente nel trasferimento. L’operatore ricevente provvederà all’aggiornamento del suo instradamento ed alla configurazione dei suoi sistemi perchè le chiamate in uscita dalla nuova SIM riportino come ID il numero portato. Il nuovo operatore provvederà infine alla configurazione di tutti i servizi aggiuntivi sul numero portato: segreteria, area clienti etc.

Un esempio pratico. Giorgino, deluso dal servizio clienti di A, suo attuale operatore, decide di passare a B. Il Mercoledì mattina si reca in un punto vendita di B, e conclude alle 10.30 le procedure di richiesta. B, entro le 19 di tale giorno, provvederà ad inviare ad A la richiesta di trasferimento. A dovrà, entro le 10 del giorno lavorativo successivo (Giovedì), confermare a B l’accettazione/rifiuto della richiesta. Giorgino è fortunato, e la sua richiesta viene accettata. Torna quindi in gioco B, che entro le 19 dello stesso Giovedì, dovrà annunciare (agli altri operatori e al Ministero) l’imminente cambiamento, ed entro mezzanotte diffondere le nuove tabelle di portabilità. La procedura è quasi completata: tra le 6.30 e le 8.30 della mattina del Venerdì verranno applicate tutte le modifiche, la vecchia SIM verrà disattivata e il numero passerà sulla nuova.

Faccio notare che queste due ore saranno le uniche di effettivo disservizio. Fino alle 6.30 del Venerdì, funzionerà perfettamente la vecchia SIM. Dalle 8.30 funzionerà perfettamente la nuova. In mezzo, il numero sarà a tratti irraggiungibile, in base all’operatore di provenienza della chiamata (niente di che, l’ho sperimentato personalmente).

L’AGCOM prevede inoltre che per ogni giorno lavorativo di ritardo nella procedura, se questo ritardo è superiore ai due giorni (ancora, lavorativi), sia corrisposto un determinato indennizzo al cliente. Ma come si calcola questo ritardo? Semplice, seguendo la definizione data dal dizionario, ovvero tempo che intercorre tra il momento entro il quale un certo evento è previsto, e quello in cui effettivamente questo evento avviene. Sbaglia quindi chi vi dice che la pratica deve concludersi in 24 ore, tempo che però l’AGCOM estende fino a 48 per risolvere eventuali problemi tecnici: anche assumendo per vera (l’errata) affermazione secondo la quale una MNP dovesse durare al massimo 24 ore, i due giorni tollerati di ritardo porterebbero la durata massima ammessa per il procedimento ad un totale di 72 ore (3 giorni lavorativi), non di 48.

Prendiamo il caso di Giorgino. Se la portabilità non fosse stata completata entro le 8.30 del Venerdì, saremmo entrati in fascia di ritardo. Il Sabato non si considera, la Domenica è festivo, quindi il primo giorno lavorativo di ritardo sarebbe scattato alle 8.30 del Lunedì successivo. Il secondo dalle 8.30 del Martedì, e da lì saremmo entrati nella fascia che da’ diritto ad un risarcimento. Non esaltatevi: AGCOM impone un importo minimo di 2,5€ per ogni giorno di ritardo, e immagino che gli operatori non desiderino offrire più del minimo imposto. Inoltre, qualcuno mi dice che spesso, in cambio di procedure più svelte offrano cifre addirittura inferiori.

La normativa, come potete verificare, parla di orari e deadlines e non definisce, direttamente, una durata massima totale per questo processo. Faccio qualche calcolo per i frettolosi: le richieste evase più velocemente, calendario alla mano, sono quelle effettuate il Lunedì/Martedì/Mercoledì (in modo da non tirare dentro il weekend nel tempo di attesa), in un orario molto vicino alle 17. Una richiesta inviata alle 16.59 del Lunedì, viene infatti completata alle 8.30 del Mercoledì, per un totale di circa 40 ore (ed è la situazione più veloce immaginabile).

E adesso permettetemi una nota, preventiva, per quelli che “si ok, funziona così, ma che schifo l’Italia”. Signori. Ci sono stati in cui la portabilità si paga, parecchio, e in cui non sono possibili i giochini che fate voi, la famosa “triangolazione” per accedere ad offerte destinate solo ai nuovi clienti del vostro amato operatore. Ci sono paesi in cui la portabilità viene effettuata in tempi talmente brevi (minuti), che il furto del numero di telefono è diventato un problema parecchio incidente.

Non lamentatevi sempre e comunque.