Facebook e i segreti per costruire un servizio web da un miliardo di utenti

Facebook e i segreti per costruire un servizio web da un miliardo di utenti

Il popolare social network, assieme a Qualcomm ed Ericsson, spiega alcune misure utili a realizzare servizi scalabili su grandi dimensioni ed operativamente efficienti

di Andrea Bai pubblicata il , alle 14:31 nel canale Scienza e tecnologia
Qualcomm
 

A seguito dell'annuncio dell'iniziativa Internet.org, promossa lo scorso 20 agosto da Facebook in collaborazione con Ericsson, MediaTek, Opera, Nokia, Qualcomm e Samsung e che ha lo scopo di aiutare a colmare il digital divide per quei due terzi del mondo che ancora non ha accesso ad Internet (si tratta di circa 5 miliardi di individui), il popolare social network rende disponibile un documento nel quale racconta qualche "segreto" dell'enorme macchina tecnologica che le ha permesso di rivoluzionare il mondo della rete in questi ultimi anni.

Le informazioni divulgate da Facebook, contenute in un documento di 70 pagine, contengono molti dettagli sulle sfide che il social network ha dovuto risolvere e sulle strategie e le risorse messe in campo allo scopo. Si tratta di informazioni preziose per qualsiasi realtà abbia intenzione di costruire un qualsiasi genere di attività online che voglia servire centinaia di milioni di persone.

Nel documento viene rivelato che Facebook conserva circa 250 petabyte di dati presso i propri datacenter, con un tasso di crescita di oltre mezzo petabyte di nuove informazioni ogni giorno. Informazioni composte dalla condivisione di 4,75 miliardi di contenuti (aggiornamenti di stato, wall post, foto e commenti), 4,5 miliardi di "Like" e oltre 10 miliardi di messaggi. Impressionante anche il numero complessivo di foto caricato sui server del social network: 250 miliardi, con un ritmo di crescita di 350 milioni di nuove foto ogni giorno.

La documentazione rilasciata da Facebook illustra, anche con una elevata profondità di dettaglio, come i tecnici del social network abbiano risolto alcune delle sfide più interessanti. Ad esempio viene raccontata la costruzione di uno strumento chiamato HipHop (ora progetto open-source su GitHub) per eseguire il transcode di codice PHP più facile da scrivere in codice C++ più facile da eseguire. Facebook ha poi in seguito realizzato una virtual machine per eseguire più velocemente i programmi PHP (secondo le informazioni rilasciate fino a cinque volte più veloce di Zend PHP).

Tra le tecnologie e gli strumenti open-source che Facebook ha sviluppato o ha contribuito a sviluppare ci sono Corona, per la programmazione efficiente di lavori di computazione, AvatarNode, per la gestione ed il coordinamento di operazioni di scrittura sull'HDFS e una versione personalizzata di Apache Giraphe. Il framework opensource di Facebook è la base per il datacenter situato in Oregon, a Prineville.

Facebook illustra inoltre le modalità con cui ottimizza le sue app mobile per l'uso su una vasta gamma di dispositivi, con varie funzionalità, in lingue differenti e in varie parti del mondo. La compagnia ha costruito uno strumento chimato Air Traffic Control che simula varie combinazioni tra rete e dispositivo o direttamente dal proprio quartier generale di Mountain View. Usando i risultati di queste simulazioni è stata capace di ottimizzare elementi come le dimensioni delle immagini, per fornire a ciascun utente le informazioni e i dati richiesti nel modo più efficiente possibile senza sovraccaricare le sue connessioni di rete.

In tutto questo Facebook spiega inoltre come nel corso del 2011 si sia rivelata strategica l'acquisizione di Snaptu, che le ha permesso di realizzare una versione del social network ottimizzata per i feature phone. Facebook for Every Phone, questo il nome, viene utilizzato da oltre 100 milioni di persone nel mondo.

Nelle ultime sezioni del documento Facebook descrive invece le attività portate avanti da Qualcomm ed Ericsson per rendere più efficienti le tecnologie di rete necessarie alla connettività wireless. Qualcomm, ad esempio, sta partecipando all'iniziativa 1000x Challenge, per la costruzione di nuove infrastrutture di telecomunicazioni dove la capacità wireless globale sia in grado di rispondere ad una domanda 1000 volte superiore a quella odierna.

4 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Mparlav17 Settembre 2013, 15:31 #1
Certo deve essere un lavoraccio gestire tutta quella mole di dati...

...per l'NSA
Axios200617 Settembre 2013, 19:56 #2
Originariamente inviato da: Mparlav
Certo deve essere un lavoraccio gestire tutta quella mole di dati...

...per l'NSA


Ed il bello è che la gente che si lamenta della NSA, molto spesso è la stessa che pubblica tutti i suoi cavoli privati su fb...
san80d17 Settembre 2013, 19:58 #3
Originariamente inviato da: Axios2006
Ed il bello è che la gente che si lamenta della NSA, molto spesso è la stessa che pubblica tutti i suoi cavoli privati su fb...


straquoto
cignox118 Settembre 2013, 08:12 #4
--si tratta di circa 5 miliardi di individui

correzione: "si tratta di circa 5 miliardi di potenziali clienti"

Comunque davvero, non vorrei essere nei responsabili della sicurezza e della gestione dei dati. Mi domando se in quei 250 petabyte sono compresi anche i backup e la ridondanza...

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^