Cloud e virtualizzazione: come cambierà l'end user computing secondo VMware

Cloud e virtualizzazione: come cambierà l'end user computing secondo VMware

La cessione del supporto a Windows XP metterà molte aziende nella situazione di dover riconsiderare in che maniera offrire gli strumenti tecnologici ai dipendenti, portando ad una trasformazione dell'ambiente operativo

di pubblicato il nel canale Software
WindowsMicrosoft
 

La conclusione del percorso

Secondo VMware un percorso così strutturato permetterà di trasformare radicalmente l'ambiente operativo, andando a risolvere quei punti critici che abbiamo evidenziato in apertura e investendo l'EUC del ruolo che realmente dovrebbe avere: il principale strumento di supporto ed esecuzione dei processi di business.

Anzitutto l'end-user computing sarà visto dal business non più come un ostacolo al cambiamento, alla crescita e alla trasformazione. La semplificazione nella gestione e la rimozione della complessità consentirà di portare a termine in maniera più rapida eventuali operazioni di fusione e acquisizione, l'apertura o la chiusura di sedi e uffici potrà essere condotta a costi inferiori e, aspetto molto più importante, il ritorno dell'investimento potrà finalmente essere misurato in maniera diretta. Il nuovo ambiente consentirà un controllo più granulare, con un incremento diretto nella sicurezza e nella verifica delle attività degli utenti.

Gli utenti stessi potranno disporre di una maggior flessibilità per lavorare con dispositivi e applicazioni che preferiscono, ma dovranno tener presente che le migliorate capacità di controllo potranno consentire di ottenere metriche più precise sul livello di produttività tra le varie alternative. Gli utenti potranno avere maggior voce in capitolo nelle decisioni che riguardano gli strumenti che usano per lavorare, partecipando in maniera più democratica alla vita dell'azienda.

I dipartimenti IT saranno riusciti a scappare dal circolo vizioso nel quale si trovano intrappolati oggi: costi per utente significativamente ridotti e una maggiore attenzione, invece, ai benefici che possono apportare al business. Non da ultima una maggiore flessibilità anche per loro, che li mette nella condizione di poter soddisfare in maniera molto più semplice le numerose richieste.

In ultima analisi, il "computing" passerà in secondo piano, poiché l'attenzione si sarà spostata sugli utenti, sulle applicazioni e sui dati. Le applicazioni saranno accessibili ovunque e da qualunque dispositivo, ma il dipartimento IT potrà disporre di un controllo molto più stretto sulle modalità d'utilizzo degli strumenti. Si gestirà meno e si gestirà meglio, con una grande semplificazione degli strumenti di supporto.

17 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
birmarco28 Settembre 2011, 17:04 #1
4° fase: roll back

Non mi è mai piaciuto questa voglia di abbandono per la postazione fisica. Troppo dipendenza da internet e dal datacenter. Basta che un operaio che fa lavori in strada tagli per sbaglio il cavo della linea telefonica oppure un pirla che finisce con l'auto contro la colonnina di internet tranciandola (e scappando senza dire niente a nessuno ) per lasciarmi senza PC per settimane. Mi è già successo di rimanere senza internet per quasi un mese grazie ad un genio del genere... ma rimanere senza PC è diverso. Soprattutto se devo consegnare un lavoro urgente.

Nel mondo cloud del 2022 dovrei abbandonare il mio sistema Atom a 5 nm senza neanche hard disk e cercare il vecchio PC portatile mezzo rotto già dal 2005 che avevo lasciato in cantina per sbaglio... e ritrovarmi di nuovo davanti ad una bella schermata di XP Pro che 30 anni dopo la sua compilazione è di nuovo li a sfasciarmi le palle dopo la tanta fatica fatta per non vederlo più in giro...

EDIT. Ho avuto giusto una interruzione di linea mentre pubblicavo il post. In un sistema solo cloud questo avrebbe significato perdere tutta la mia sessione utente con i lavori che stavo facendo...
robertogl28 Settembre 2011, 18:01 #2
Originariamente inviato da: birmarco
4° fase: roll back

Non mi è mai piaciuto questa voglia di abbandono per la postazione fisica. Troppo dipendenza da internet e dal datacenter. Basta che un operaio che fa lavori in strada tagli per sbaglio il cavo della linea telefonica oppure un pirla che finisce con l'auto contro la colonnina di internet tranciandola (e scappando senza dire niente a nessuno ) per lasciarmi senza PC per settimane. Mi è già successo di rimanere senza internet per quasi un mese grazie ad un genio del genere... ma rimanere senza PC è diverso. Soprattutto se devo consegnare un lavoro urgente.

Nel mondo cloud del 2022 dovrei abbandonare il mio sistema Atom a 5 nm senza neanche hard disk e cercare il vecchio PC portatile mezzo rotto già dal 2005 che avevo lasciato in cantina per sbaglio... e ritrovarmi di nuovo davanti ad una bella schermata di XP Pro che 30 anni dopo la sua compilazione è di nuovo li a sfasciarmi le palle dopo la tanta fatica fatta per non vederlo più in giro...

EDIT. Ho avuto giusto una interruzione di linea mentre pubblicavo il post. In un sistema solo cloud questo avrebbe significato perdere tutta la mia sessione utente con i lavori che stavo facendo...

senza contare che siamo in Italia, io con il 56k cosa faccio? Aspetto minuti per caricarmi una cartella dal server remoto?
yankeeone28 Settembre 2011, 18:05 #3
Il problema è sempre legato al come il progresso viene perpetuato.
Ovviamente avere tutte le postazioni cloud based consente di semplificare la gestione, aumentare le performance a parità di hardware e migliorare la sicurezza sul lungo termine.
d'altro canto però, se una granularizzazione della gestione (situazione attuale) porta ad un più elevato costo di gestione, il collasso del sistema avviene a zone, cioè localmente.
Nel caso di un ambiente aziendale SOLO cloud, abbiamo una situazione di affidabilità relegata solo al master server, che in caso di catastrofe, lascerebbe nei casini tutti i client.
Immaginiamoci Fukushima:
se tutti i sistemi di controllo e gestione fossero a managment remoto, e "putacaso" una delle farm fosse stata vicino alla zona del disastro, tutti i clienti ancora sarebbero fermi, e ne è passato di tempo.

La mia idea sarebbe l'avere, si, il cloud, ma da sincronizzare sempre con il client, in modo da non rilasciare tutta la responsabilità su di un unico (anche se 3 o 4 non fa differenza) apparato.
Insomma, preferisco tanti piccoli cervelli che si appoggiano ad un cervellone, ma che in caso di catastrofe possono anche ragionare a se stanti, al posto di pochi grandi cervelloni che ragionano per tutti....
Questo è ciò che penso io, non mi preoccupano i complottismi, solo l'affidabilità dell'intero sistema informatico.

PS: che poi parlando di affidabilità, centralizzando, la si riduce.....
robertogl28 Settembre 2011, 18:12 #4
edit
birmarco28 Settembre 2011, 18:31 #5
Originariamente inviato da: robertogl
senza contare che siamo in Italia, io con il 56k cosa faccio? Aspetto minuti per caricarmi una cartella dal server remoto?


Si ma anche con una 20 Mega asincrona, il top qui da noi, a parte il Fibra100 solo a Milano centro e forse anche a Roma, 1MB/s di upload significa metterci cmq 4 ore e 30 per caricare sul computer una schedina con 2GB di foto delle vacanze.

Perchè sia attuabile il cloud servono connessioni da 1-2GB/s sincrone come minimo per avere le prestazioni dei vecchi dischi IDE o SATA2. Ora che tutti si stanno abituando agli SSD... Senza contare il tempo di accesso!

Originariamente inviato da: yankeeone
Il problema è sempre legato al come il progresso viene perpetuato.
Ovviamente avere tutte le postazioni cloud based consente di semplificare la gestione, aumentare le performance a parità di hardware e migliorare la sicurezza sul lungo termine.
d'altro canto però, se una granularizzazione della gestione (situazione attuale) porta ad un più elevato costo di gestione, il collasso del sistema avviene a zone, cioè localmente.
Nel caso di un ambiente aziendale SOLO cloud, abbiamo una situazione di affidabilità relegata solo al master server, che in caso di catastrofe, lascerebbe nei casini tutti i client.
Immaginiamoci Fukushima:
se tutti i sistemi di controllo e gestione fossero a managment remoto, e "putacaso" una delle farm fosse stata vicino alla zona del disastro, tutti i clienti ancora sarebbero fermi, e ne è passato di tempo.

La mia idea sarebbe l'avere, si, il cloud, ma da sincronizzare sempre con il client, in modo da non rilasciare tutta la responsabilità su di un unico (anche se 3 o 4 non fa differenza) apparato.
Insomma, preferisco tanti piccoli cervelli che si appoggiano ad un cervellone, ma che in caso di catastrofe possono anche ragionare a se stanti, al posto di pochi grandi cervelloni che ragionano per tutti....
Questo è ciò che penso io, non mi preoccupano i complottismi, solo l'affidabilità dell'intero sistema informatico.

PS: che poi parlando di affidabilità, centralizzando, la si riduce.....


Infatti...
MadMax of Nine28 Settembre 2011, 18:31 #6
Originariamente inviato da: yankeeone
Il problema è sempre legato al come il progresso viene perpetuato.
Ovviamente avere tutte le postazioni cloud based consente di semplificare la gestione, aumentare le performance a parità di hardware e migliorare la sicurezza sul lungo termine.
d'altro canto però, se una granularizzazione della gestione (situazione attuale) porta ad un più elevato costo di gestione, il collasso del sistema avviene a zone, cioè localmente.
Nel caso di un ambiente aziendale SOLO cloud, abbiamo una situazione di affidabilità relegata solo al master server, che in caso di catastrofe, lascerebbe nei casini tutti i client.
Immaginiamoci Fukushima:
se tutti i sistemi di controllo e gestione fossero a managment remoto, e "putacaso" una delle farm fosse stata vicino alla zona del disastro, tutti i clienti ancora sarebbero fermi, e ne è passato di tempo.

La mia idea sarebbe l'avere, si, il cloud, ma da sincronizzare sempre con il client, in modo da non rilasciare tutta la responsabilità su di un unico (anche se 3 o 4 non fa differenza) apparato.
Insomma, preferisco tanti piccoli cervelli che si appoggiano ad un cervellone, ma che in caso di catastrofe possono anche ragionare a se stanti, al posto di pochi grandi cervelloni che ragionano per tutti....
Questo è ciò che penso io, non mi preoccupano i complottismi, solo l'affidabilità dell'intero sistema informatico.

PS: che poi parlando di affidabilità, centralizzando, la si riduce.....


E ormai anche se la connessione via cavo ha dei problemi ormai con il 3g si fanno le stesse cose o quasi...
Quando si parla di sito di "disaster recovery" è proprio per eventi naturali "disastrosi" come quello del Giappone per esempio.
Quando hai un datacenter a più location l'unica cosa che potrebbe buttarti giu il sistema pregiudicherebbe anche la tua esistenza e di lavorare poi te ne fregherebbe davvero poco
L'unico reale problema è quello appunto della banda ma riguarda solo chi si collega da casa propria, un azienda che si rispetti ha una connettività ridondata e una banda sufficente per lavorare in modo fluido.
Poi che le realtà piccole e media in italia si sa che sono ancora tecnologicamente all'era del commodore e parlare di cloud sia abbastanza inutile...
LASCO28 Settembre 2011, 18:35 #7
[off topic]
Anche oggi, come ieri, c'è l'immagine dell'asus ux all'inizio dell'articolo senza che se ne parli. Sarà proprio piaciuto a qualcuno!
omerook28 Settembre 2011, 21:44 #8
la cosa che mi fa più ridere è che spacciano come futuro roba degli anni 50.
se i mainframe sono stati per lo piu abbandonati ci sara stato pure un motivo!
se collassa il la rete could che succede si blocca il mondo?

poi volendo essere ottimistici diciamo che il could è bello funziona bene ed è conveniente, cosi tutte le imprese, grandi, medie e piccole, iniziano a migrare verso di esso. cosa succede?

-fase 1) mercato in espansione con grossi profitti,
tutti gli operatori IT ci si ficcano per mangiare una bella fetta dell' abbondante torta

-fase 2) dopo qualche anno il mercato il mercato non è piu in espansione ma satura, la concorrenza fa scendere i prezzi e i margini di profitto calano

-fase 3) i piccoli operatori del coud cominciano a mollare quindi o chiudono o vengono aquisiti da operatori piu grandi

-fase 4) rimangono 1 o 2 operatori che hanno il monopolio di fatto sull tecnologia could e decidono tutto per tutti!
Luca6928 Settembre 2011, 22:44 #9
Il Cloud non sono altro che la versione moderna dei vecchi mainframe.
Si tratta di ondate ....queste tecnologie vanno e vengono a seconda delle mode.

Poi non si deve confondere l'utenza domestica con quella aziendale.
Anche li ci sono periodi in cui tutti i servizi sono sui server e si accede solo in remoto alternati a periodi in cui viceversa si preferisce la potenza locale e accentrare solo i dati sul server per sicurezza.

Certamente con il concetto di cloud anche noi, esseri umani, ne possiamo giovare se qualche azienda si decide a creare dei servizi fatti in maniera decente.
Un esempio concreto sono i giochi che si stanno spostando sul cloud.
Baboo8529 Settembre 2011, 09:45 #10
Originariamente inviato da: robertogl
Originariamente inviato da: birmarco
4° fase: roll back

Non mi è mai piaciuto questa voglia di abbandono per la postazione fisica. Troppo dipendenza da internet e dal datacenter. Basta che un operaio che fa lavori in strada tagli per sbaglio il cavo della linea telefonica oppure un pirla che finisce con l'auto contro la colonnina di internet tranciandola (e scappando senza dire niente a nessuno ) per lasciarmi senza PC per settimane. Mi è già successo di rimanere senza internet per quasi un mese grazie ad un genio del genere... ma rimanere senza PC è diverso. Soprattutto se devo consegnare un lavoro urgente.

Nel mondo cloud del 2022 dovrei abbandonare il mio sistema Atom a 5 nm senza neanche hard disk e cercare il vecchio PC portatile mezzo rotto già dal 2005 che avevo lasciato in cantina per sbaglio... e ritrovarmi di nuovo davanti ad una bella schermata di XP Pro che 30 anni dopo la sua compilazione è di nuovo li a sfasciarmi le palle dopo la tanta fatica fatta per non vederlo più in giro...

EDIT. Ho avuto giusto una interruzione di linea mentre pubblicavo il post. In un sistema solo cloud questo avrebbe significato perdere tutta la mia sessione utente con i lavori che stavo facendo...


senza contare che siamo in Italia, io con il 56k cosa faccio? Aspetto minuti per caricarmi una cartella dal server remoto?



Vi quoto, pero' c'e' da dire una cosa: spero che da qui al 2022 ci siano alternative di emergenza in modo da assicurare una connessione al server centrale in ogni caso.

E sinceramente, a meno che non si parli dell'Italia in una news, direi di lasciarla fuori, perche' tanto non si puo' argomentare, siamo indietro in qualsiasi cosa punto. Su queste news tecnologiche io penso all'america, al giappone e alla cina. E non mi stupirei se pure gli africani ci superassero a livello tecnologico... Non so perche' ma mi e' venuta in mente una delle pubblicita' della Tim di Colombo

Originariamente inviato da: yankeeone
Il problema è sempre legato al come il progresso viene perpetuato.
Ovviamente avere tutte le postazioni cloud based consente di semplificare la gestione, aumentare le performance a parità di hardware e migliorare la sicurezza sul lungo termine.
d'altro canto però, se una granularizzazione della gestione (situazione attuale) porta ad un più elevato costo di gestione, il collasso del sistema avviene a zone, cioè localmente.
Nel caso di un ambiente aziendale SOLO cloud, abbiamo una situazione di affidabilità relegata solo al master server, che in caso di catastrofe, lascerebbe nei casini tutti i client.
Immaginiamoci Fukushima:
se tutti i sistemi di controllo e gestione fossero a managment remoto, e "putacaso" una delle farm fosse stata vicino alla zona del disastro, tutti i clienti ancora sarebbero fermi, e ne è passato di tempo.

La mia idea sarebbe l'avere, si, il cloud, ma da sincronizzare sempre con il client, in modo da non rilasciare tutta la responsabilità su di un unico (anche se 3 o 4 non fa differenza) apparato.
Insomma, preferisco tanti piccoli cervelli che si appoggiano ad un cervellone, ma che in caso di catastrofe possono anche ragionare a se stanti, al posto di pochi grandi cervelloni che ragionano per tutti....
Questo è ciò che penso io, non mi preoccupano i complottismi, solo l'affidabilità dell'intero sistema informatico.

PS: che poi parlando di affidabilità, centralizzando, la si riduce.....


Be' io spero che il cloud come la pensano loro sia diverso da come lo e' oggi.

Insomma ci sono vari problemi, tutti legati al "non riesco a raggiungere il server".
Una soluzione sarebbe di non avere un "cervellone" centralizzato, ma avere una rete computazionale stile BOINC, con ovviamente i dati locali memorizzati sul proprio disco (avere anche i dati sparsi tra tutti i pc, anche fossero criptati non mi andrebbe bene e poi ci sarebbe il problema che potrebbero non essere accessibili causa pc disconnessi). Questo potrebbe ridurre la necessita' di un hardware potente: un Atom da solo non fa nulla, ma una rete di 1 milione di Atom fa giusto un paio di cose in piu'

Al che pero' non sarebbe piu' il "cloud" come viene pensato adesso, con qualche server che fa tutto e i client collegati.


In ogni caso ripeto: col cloud si sta tornando indietro di decenni, quando si lavorava col terminale. Secondo me il cloud andrebbe ristretto a pochi compiti. Qui tutti spingono il cloud solo per un semplice motivo: avere il controllo su tutto quello che fanno gli utenti, e basta.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^