Il-Trafiletto
Visualizzazione post con etichetta dati. Mostra tutti i post
Visualizzazione post con etichetta dati. Mostra tutti i post

23/08/14

Virus letale | HIV | Cura per il futuro | Parte terza | Interessanti prospettive

HIV da virus letale
a cura per il futuro

Lo studio, che ha permesso a sei piccoli pazienti di riappropriarsi delle proprie vite, segna una svolta nella lotta alle malattie genetiche capace di cambiare il futuro della medicina e la vita di molti altri pazienti. 


Nel breve termine, il prossimo appuntamento è previsto per il 2016, anno in cui i dati relativi a tutti i pazienti trattati nello studio confermeranno (almeno si spera) l'efficacia di questa terapia. I progetti sono poi di estendere la terapia anche ai pazienti in uno stadio più avanzato della malattia, in modo da farla regredire ed estendere il potente metodo utilizzato anche alle altre malattie.

In particolare, la terapia genica è una valida candidata per la cura di malattie genetiche del sangue che attualmente hanno come unica alternativa il trapianto. Inoltre, Telethon sta lavorando per portare nel letto del paziente 25 metodi di cura per 23 patologie. Nel 2002 il TIGET annunciava, in un articolo pubblicato sulla rivista Science, la sconfitta di Ada-Scid, una malattia genetica che distruggeva le difese immunitarie. Grazie a un accordo siglato nel 2010 tra Telethon e la casa farmaceutica Glaxo, si sta lavorando per tradurre la terapia genica contro Ada-Scid in un farmaco fruibile dai pazienti di tutto il mondo. La speranza ultima è che si possa trasformare in farmaco anche la terapia contro la leucodistrofia e la sindrome di Wiskott-Aldrich. 

La medicina ha fatto progressi impensabili negli ultimi decenni grazie a una dettagliata conoscenza del genoma umano, associato alla capacità di manipolare le cellule staminali e ad avanzate tecniche di ingegnerizzazione. Grazie al connubio di tutte queste cose è oggi possibile diagnosticare precocemente le malattie e riuscire a curarne molte in modi e tempi prima impensabili. Possiamo solo immaginare quindi le potenzialità future della terapia genica, che ci permetterà forse, un giorno, di sconfiggere le più feroci malattie genetiche.(science)


30/06/14

Wi.Fi è meglio

Per evitare di consumare il poco traffico dati che gli operatori telefonici ci mettono a disposizione, è meglio che lo smartphone sia collegato il più possibile a una rete Wi-Fi. Vi svelo qualche trucco.

Lo smartphone è un dispositivo progettato per essere sempre on-line e può rimanere in contatto con il mondo esterno attraverso diverse connessioni. Trattandosi fondamentalmente di un telefono, è ovvio che il più importante collegamento sia quello attraverso la rete cellulare. In particolare il traffico dei dati su Internet avviene attraverso la linea cellulare veloce del telefono, ma i contratti più diffusi in Italia prevedono che, dopo una certa quantità di Megabyte e Gigabyte scaricati, la velocità venga ridotta o si paghi un sovrapprezzo.

Per questo motivo la connessione 3G degli smartphone non è l'ideale per scaricare app, visualizzare video su YouTube o ascoltare musica tramite servizi on-line come Spotify o Deezer. Quando è possibile sarebbe meglio utilizzare una connessione Wi-Fi: quella di casa o, se il vostro principale vi dà il permesso, quella dell'ufficio. Quando collegate lo smartphone a una rete Wi-Fi, qualsiasi app avrà accesso a Internet solo tramite essa. Il dispositivo esclude automaticamente la navigazione e il traffico dei dati sulla linea dell'operatore telefonico, perlomeno finchè il segnale Wi-Fi è forte e chiaro. Le telefonate, invece, continueranno ad arrivare tramite rete cellulare, a meno che qualcuno non vi chiami via Skype, poichè il servizio VoIP si appoggia a Internet.
Connessione Wi-Fi

LA RETE WI-FI IN CASA
Se vi collegate da casa, l'accesso al Wi-Fi non dovrebbe presentare problemi. L'unica cosa che serve, di solito, è la password utilizzata per il collegamento Wi-Fi al router e che avete impostato la prima volta che avete installato la rete in casa: se non l'avete impostata non va bene, perchè significa che avete lasciato la rete accessibile per chiunque. Per configurare la connessione Wi-Fi con uno smartphone Windows Phone seguite le istruzioni nel riquadro "On-line subito".

RETI SCONOSCIUTE
Quando vi trovate in un'area urbana è probabile che lo smartphone rilevi numerose reti wireless. Se avete i dati di accesso di una di queste potete toccare il nome della rete conosciuta e inserire la password, come se fosse la vostra rete LAN domestica. Dopo il primo accesso, la nuova rete Wi-Fi entrerà a fare parte dell'elenco di quelle conosciute. Ciò significa che, anche nel marasma di reti wireless che potete trovare in città, il vostro smartphone sarà in grado di distinguere quella di cui avete già inserito i dati di accesso. Non è inusuale, in città, trovare anche 15, 20 reti perfettamente raggiungibili, e quindi il fatto che lo smartphone sia in grado di interfacciarsi da solo con quella desiderata, senza richiedere ulteriori interventi da parte vostra, è davvero utile. Una volta che ha riconosciuto una rete, infatti, lo smartphone utilizzerà sempre quella come preferenziale per collegarsi a Internet, non appena la scova in mezzo a tutti i segnali Wi-Fi che lo raggiungono.(computeridea)


30/05/14

Parte seconda | iOS 7 iniziamo dal Centro di controllo.

Una volta superata la meraviglia o disappunto che sia, per la nuova grafica, ci si imbatte nella prima e forse più importante tra le nuove funzioni: il Centro di controllo.

Basta scorrere il dito verso la parte alta del display per farlo comparire. Qui sono raccolte tutte le funzioni e le impostazioni che serve avere a portata di mano per un accesso rapido, Tra le tante cito "Uso in aereo", la gestione delle connessioni Wi-Fi e il "non disturbare".

Non è tutto, perché sempre dal Centro di controllo si può accedere in pochi istanti alla fotocamera, alla gestione dei brani musicali che si stanno ascoltando, alle impostazioni Bluetooth e persino alla Torcia, altra novità che consente di trasformare il flash dell'iPhone in una fonte di luce. Novità in senso relativo, perchè esistono già svariate app che si occupano di tramutare lo smartphone in una torcia.
AirDrop su iOS 7
(immagine dal web)

Ebbene, il nuovo iOS7 integra già la funzione con buona pace degli sviluppatori di terze parti. Sempre dal Centro di controllo, si può accedere a due funzioni importanti: una è AirPlay, già conosciuta come funzione per la trasmissione in streaming di contenuti multimediali.
L'altra funzione è invece nuova di zecca e si tratta di AirDrop.
Accessibile rapidamente dal Centro di controllo, AirDrop permette lo scambio rapido di file e documenti da un dispositivo all'altro mediante Wi-Fi o Bluetooth. Il sistema promette di essere semplicissimo, al punto che non necessita di alcuna configurazione. Tutto ciò che richiede è di indicare il destinatario che se si trova già tra i contatti verrà immediatamente riconosciuto.

Un tocco avvierà il trasferimento di immagini, video, musica...tutto ciò che si desidera. Per non sbagliare ed evitare rischi inutili, i trasferimenti sono criptati. Sempre dal Centro di controllo, infine è possibile decidere i contatti dai quali vogliamo essere visti.(computeridea)

22/04/14

Tristi o felici | Vediamo cosa ci dice twitter.

Mi sento triste oppure felice? Vi è mai capitato di chiedervi come vi sentite e per risposta ad un certo punto giunge un: NON SAPREI!

Bene, magari non saranno attendibili come ci si aspetterebbe ma Twitter a provato ad analizzare questo aspetto dal punto di vista sociologico in questo modo. Esistono svariati modi per potere fare uso dei dati analizzati di Twitter, ed uno di questi riguarda l’aspetto sociologico in quanto che, analizzando i dati e i tweet ricevuti è possibile comprendere quali siano gli attimi in cui la gente sia più felici o più tristi.

Possiamo dunque affermare che Twitter non è soltanto svago e divertimento, ma adesso assume un carattere particolare che ci mette in luce il nostro spaccato della vita quotidiana: vediamo come.
Mettiamo che siamo ad inizio settimana di lunedì, ecco che Twitter potrebbe farci notare che oggi è il giorno dei postumi della ubriacatura oppure quello dove si è per lo più in ritardo al lavoro. Questo è quanto si evince, se seguiamo le analisi dei dati venuti alla luce dai tweet di Twitter.

Ma la domanda vera e propria è: come fa il social network a entrare in possesso di queste informazioni?
Dati analizzati di Twitter
Nulla di più semplice: Twitter (vi ricordo che ultimamente il social network ha visto un calo nei nuovi iscritti) va in cerca di determinate parole chiave (key word) come per esempio “sentirsi felici”, “sentirsi triste”, “postumi della sbronza” o ancora “ritardo al lavoro”. Messi insieme come i pezzi di un puzzle, questi dati hanno permesso al social network di mettere in luce lo stato d'animo di si sentono gli utenti realmente, ma quel che più ha importanza è soprattutto quando.

Alcuni dei risultati ottenuti sono alquanto prevedibili. 
Gli utenti twittano di più le parole “ritardo al lavoro” nei giorni feriali estivi, mentre la parola “triste” compare prevalentemente nell'ultimo mese dell'anno, con ogni probabilità dovuto al fatto che il clima è più brutto (ricordatevi che questa analisi è stata fatta analizzando i tweet in lingua inglese) oppure anche al fattore che si è lontani dalla famiglia durante le vacanze natalizie.
Altri dati bizzarri svelano che i martedì dell'ultimo mese dell'anno, pare che siano giorni in cui gli utenti di Twitter si sentono “felici”, ma nel caso del 2013 molto probabilmente era dovuto al fatto che era la Vigilia di Natale e del Capodanno, quindi o non lavoravano o pregustavano il Natale e i veglioni del primo dell’anno.(blogosfere.it)

11/04/14

Pensare per un robot | Un robot per essere intelligente dovrà raggiungere l'efficenza del cervello umano!

Dopo averli visti in piedi su due zampe, camminare e toccare, nonchè manovrare perchè mai non dovrebbero pensare? Un robot infatti per definirsi intelligente, dovrà per forza raggiungere il livello di efficenza e potenza del cervello umano!

Forse uno dei motivi principali per cercare di emulare gli esseri umani quando si crea un robot è la speranza di renderlo più intelligente. In fin dei conti, ha senso ispirarsi al computer più sofisticato che ci sia: il cervello umano. Va benissio sapere calcolare il pi greco con un miliardo di cifre decimali, ma quando si hanno dinanzi impegni che richiedono di elaborare contemporaneamente innumerevoli dati i computer tradizionali sono il più delle volte in difficoltà denunciando limitazioni non indifferenti.

Lo si nota particolarmente durante il riconoscimento di immagini, laddove gli esseri umani sono capaci di distinguere un volto anche se il suo aspetto è mutato negli anni. Una soluzione potrebbe essere quella proposta da Henry Markram, direttore del Centro per le neuroscienze e la tecnologia dell'E'cole polytechnique fèdèrale di Losanna. Markram dirige il progetto Human Brain, un audace tentativo di realizzare con un supercomputer una simulazione di tutta l'architettura, le funzioni e i collegamenti dell'intero cervello umano, con i suoi 86 miliardi di neuroni e i 100mila miliardi di connessioni che li uniscono.
Progetto Human Brain

I più dotati supercomputer di oggi sono capaci di svolgere processi computazionali nell'ordine dei petaflop, ovvero sia, un milione di miliardi di operazioni in virgola mobile al secondo.

Secondo l'opinione di Markram il progetto di simulare il cervello umano necessiterà di un computer mille volte più potente e parecchia energia, almeno quanta ne consuma una piccola cittadina. Appare evidente che nonè affatto comodo e proficuo tutto ciò per un solo cervello robotico, visto che un cervello umano funziona con un dispendio di energia davvero esiguo. Ma allora che cos'è che rende il cervello umano cosi efficente? Proveremo a vedere di giungere ad una risposta nel prossimo post.

10/03/14

Più tablet che PC | Avanzano inarrestabili le "tavolette" sui più ingombranti PC: nel 2015 il sorpasso inevitabile!

Più tablet che PC. Avanzano inarrestabili le "tavolette" sui più ingombranti PC: nel 2015 il sorpasso inevitabile!
Una duplice tendenza che quanto prima comporterà il sorpasso ineluttabile delle vendite da parte delle più recenti “tavolette” nei confronti dei vecchi ingombranti PC.

Bè, dire recenti, appare quasi un eufemismo: basti pensare che ad aprile l’iPad compirà quattro anni. Ma la tendenza s'era già fatta strada lo scorso anno, con i tablet che facevano registare le vendite intorno ai 218,5 milioni a livello globale superando di fatto quelle dei PC. Ma la somma dei PC e dei laptop venduti rimeneva comunque sia più alta con una quota di 315,1 milioni.
Tablet vs PC

Il 2014 invece, secondo le previsioni della società di analisi statunitense IDC, PC e laptop perderanno terreno, scendendo a 295,9 milioni, mentre i tablet saliranno a 260,9 milioni. Una crescita inarrestabile e infatti il sorpasso è previsto per il 2015: il prossimo anno si prevede la vendita di 300,7 milioni di tavolette contro i 293,5 milioni di PC e laptop, ma non è tutto, perchè il divario è destinato ad aumentare ancora.

Nel 2018 saranno venduti 383,8 milioni di tablet e solo 291,7 milioni di “vecchiPC. Del resto basta guardarsi in giro per arrendersi all’evidenza: i dispositivi mobile, che siano smartphone o tablet, ci hanno ormai conquistati. Gli ultimi dati relativi all’Italia, fotografano un mercato che per quanto riguarda le “tavolette”, nel 2012 è cresciuto del 30,9% rispetto al volume di vendita e del 12,7% rispetto al fatturato. Da noi, però, il sorpasso non sembra così vicino: secondo gli analisti di Sirmi le vendite di tablet nel 2012 sono esattamente un terzo del totale del comparto PC.

06/03/14

Opel gioca le sue carte | Connettività per una rinascita certa e duratura.

Opel gioca le sue carte! Connettività per una rinascita certa e duratura.
La risorsa su cui puntare le proprie carte è connettività, vista come atout per riconquistare la fiducia e le preferenze dei clienti, particolarmente fra i giovani, senza ovviamente trascurare i guadagni che potrebbe ricavarne dalla gestione dei dati ottenuti dai vari consumatori.

Questo è quanto affermato da Karl-Thomas Neumann, numero uno dell'azienda automobilistica tedesca durante una conferenza stampa con i giornalisti al Salone di Ginevra.
"Metteremo Onstar, il nostro sistema di connettività in tutte le nostre auto a partire dall'anno prossimo, salvo le versioni più economiche" ha detto il manager."
Il sistema, sviluppato dalla casamadre General Motors negli Usa, ha già 6,5 milioni di utenti fra Stati Uniti, Canada, Messico e Cina. Oltre a fornire informazioni all'automobilista e trasmetterlo alla rete, il sistema permette anche l'azione inversa, ovvero è capace di lanciare allarmi in caso di incidente stradale e fornisce potenzialmente anche informazioni all'azienda, che Opel ha intenzione di monetizzare.

Opel alla riconquista del mercato
L'argomento della privacy.

"Saremo i proprietari di quelle informazioni e potremmo rivenderle" spiega Neumann, secondo il quale "il business è potenzialmente molto grande: pensate che Facebook ha pagato WhatsApp 50 dollari per cliente".
Il manager avverte che "naturalmente siamo consci dei problemi di privacy e agiremo con la massima trasparenza: mostreremo al cliente di quali informazioni disponiamo e gli chiederemo il permesso di utilizzarle".
L'informazione più immediata è naturalmente la localizzazione: "se il proprietario dell'auto acconsente un ristorante accanto al quale passa potrebbe inviargli tramite noi un buono sconto".

I progressi nel business. 

Neumann è da un anno esatto ai vertici di Opel. Da buon maratoneta, sintetizza così i tempo trascorso: "Abbiamo percorso i primi 10 chilometri che non sono i più difficili. Ma adesso siamo consci che possiamo arrivare fino in fondo".
L'obiettivo per il 2014 è di aumentare la quota di mercato in un Europa, previsto in crescita del 2% circa. In primo luogo grazie ai nuovi motori benzina (il 3 cilindri da 1 litro di cilindrata) e diesel (il 1.6), entrambi con emissioni inferiori ai 100 gm/km di CO2, e poi con il rinnovo della gamma (qui a Ginevra sono state presentate due versioni della Adam, la S e la Rocks).
Dopo aver dimezzato le perdite l'anno scorso, l'obiettivo finanziario di Opel è di raggiungere il pareggio entro il 2016, grazie anche ai risparmi derivanti dalla joint venture con Peugeot.

Obiettivo 2° posto in Europa. 

Neumann guarda ancora più avanti: "Siamo il marchio numero tre in Europa (dopo Volkswagen e Renault) e puntiamo a medio termine a salire al secondo posto". Il problema più grosso da risolvere per Opel, soprattutto in Germania, è quello dell'immagine deteriorata dalla crisi del 2009 (quando General Motors aveva messo in vendita l'azienda) e da anni di quota di mercato in flessione. Per risalire la china, oltre ai prodotti, serve uno sforzo di marketing mirato: come le recenti pubblicità con Claudia Schiffer (per sottolineare l'immagine tedesca) e con l'allenatore del Borussia Dortmund Juergen Klopp.

14/02/14

Smartphone | Il 2014 sarà l'anno del sorpasso! "L'intelligence" avrà la meglio sul "basic".

Smartphone: il 2014 sarà l'anno del sorpasso"L'intelligence" avrà la meglio sul "basic". Già ampiamente previsto il sorpasso è giunto al termine: le vendite di telefonini intelligenti hanno superato per la prima volta in assoluto il record dell'anno scorso, quelle dei cellulari cosi detti "basici". Lo ha reso noto nel suo consueto reso conto di fine anno Gartner in base al quale, gli smartphone, nel quarto trimestre del 2013 e l'intero anno solare, hanno influito rispettivamente per il 57,6% e per il 53,6% sulla richiesta totale di cellulari in crescita del 3,5% a 1,8 miliardi di unità.

Il balzo in avanti degli smartphone device è stato su base annuale del 42,3% per un totale di poco meno di 968 milioni di apparecchi finiti sul mercato e del 36% riguardo gli ultimi tre mesi dell'anno. Sono numeri che affermano, qualora ve ne fosse ancora bisogno, la popolarità degli smartphone e che fanno da preludio al traguardo che si acconge a tagliare, alla conclusione del 2014, la piattaforma operativa più diffusa fra i device intelligenti, ovvero sia Android in procinto di oltrepassare la fatidica soglia del miliardo di unità spedite. Il software mobile di Google ha concluso l'anno, accaparrandosi il 78,4% del venduto, una quota (in crescita di 12 punti percentuali rispetto al 2012) cinque volte superiore a quella acquisita da Apple (in discesa dal 19,1% al 15,6%) con il suo iOs. Per quel che riguarda invece Windows Phone, al momento recita il ruolo di terza forza con una quota di mercato del 3,2%, mentre BlackBerry è precipitata all'1,9%.
Smartphone 2014: l'anno del sorpasso

Il boom (previsto) di Asia e America Latina 
Quali mercati hanno contributo a trainare più di altri il successo degli smartphone? Il rapporto di Gartner non lascia alcun dubbio: America Latina (in crescita del 96%), Medio Oriente e Africa, Asia Pacifico ed Europa orientale hanno registrato indici di crescita particolarmente importanti e mediamente sopra il 50%. A livello di singoli Paesi i picchi di incremento più elevati nel quarto trimestre 2013 li hanno fatti segnare India e Cina, dove le vendite sono aumentate rispettivamente del 167% e dell'86,3%.
Di contro ma anche questa tendenza era risaputa ed abbondantemente prevista i mercati maturi arrancano lentamente a causa della saturazione degli stessi e per via di cicli di sostituzione dei vecchi apparecchi che si sono allungati, anche in relazione alla mancanza di vere e proprie innovazioni nei modelli di fascia alta lanciati negli ultimi dodici mesi.

I vendor: le nuove sfide per Samsung ed Apple 
La frenata di domanda degli smartphone top di gamma sta condizionando anche i risultati di chi e parliamo ovviamente di Samsung di questo settore è oggi dominatore incontrastato
Il chaebol coreano ha visto ridursi infatti dell'1,6% (rispetto al dato 2012) la propria market share nel quarto trimestre anche se può a ragion veduta consolarsi con una fetta di venduto su base annua pari al 31%. Più difficile, secondo gli analisti di Gartner, sarà per il produttore asiatico il compito di confermare la propria leadership a livello tecnologico nei modelli top di gamma (dove è già scattato il count down per il lancio del Galaxy S5) e di costruire un'offerta a valore (dal punto di vista delle funzionalità e dell'interfaccia) per i telefonini intelligenti di fascia media.

Quanto ad Apple, le ottime performance dell'iPhone 5S e la persistente forte domanda per i vecchi modelli 4S nei mercati emergenti hanno aiutato la casa della Mela a segnare un nuovo record di smartphone spediti sul mercato: 50,2 milioni, nel quarto trimestre 2013. A Cupertino, per contro, devono registrare una flessione nei telefonini intelligenti in termini di share globale, bilanciata però (e questo è un dato interessante) dall'aumento della quota esibita complessivamente nei cellulari, quota salita dal 7,5% all'8,3%. Gli accordi siglati con Ntt DoCoMo in Giappone e China Mobile nell'autunno scorso dovrebbero inoltre fornire ad Apple ulteriori buone notizie.

A contendersi il terzo gradino del podio concorrono (nell'ordine) Huawei, Lenovo e Lg
Le due aziende cinesi rappresentano il nuovo che avanza nell'industria mobile e i dati dell'ultimo quarter lo dimostrano. Lenovo in particolare, potrà giocarsi nei prossimi mesi il jolly Motorola per ampliare la propria presenza nel mercato americano, più generale su quello internazionale.

Prezzi in discesa e fatturati in frenata
La sfera di cristallo di Gartner per il 2014, infine, vede un numero crescente di vendor impegnati a riallineare i rispettivi cataloghi per concentrarsi sul segmento degli smartphone a basso costo, al cospetto di un previsto rallentamento delle vendite degli apparecchi intelligenti di fascia alta. Due tendenze, quelle appena citate che avranno come effetto diretto la diminuzione del prezzo medio di vendita e il conseguente rallentamento della crescita dei ricavi per ogni singolo produttore.

04/02/14

Due Soli per un pianeta che nasce!

Due Soli per un Pianeta che nasce! Parlando scientificamente i pianeti circumbinari, cioè quelli che orbitano intorno a due stelle, rappresentano una vera e propria sfida, sia alle leggi della fisica che per i ricercatori che sono preposti a darne spiegazione sulle sue origini.

Appare alquanto difficile poterne comprendere il vero significato sul come possano essersi combinati corpi del genere in maniera cosi intrinseca sotto l’influenza gravitazionale di due Soli. Ad oggi abbiamo soltanto uno studio della Bristol’s School of Physics che prova ad abbozzare un suggerimento in tal senso: pianeti del genere di cui il più celebre e conosciuto dai fans della saga fantascientifica Star Wars è Tatooine, pare si siano formati in realtà ben lontano da dove si trovino oggi, ovverosia che abbiano trovato la loro vita altrove, per poi migrare lontano dal luogo di origine. Lo studio è stato pubblicato su Astrophysical Journal Letters.
 
images
Pianeta con due Soli
Zoe Leinhardt, a capo della ricerca, spiega che insieme ai colleghi sono arrivati a queste conclusioni effettuando una serie di simulazioni al computer che mimavano le collisioni su e tra un milioni di blocchi planetari, i mattoni da cui sono nati poi i pianeti, calcolando anche l’effetto della gravità. “Le nostre simulazioni”, spiega Leinhardt, “mostrano che il disco circumbinario è un ambiente ostile anche per oggetti di grandi dimensioni, gravitazionalmente forti.

Prendendo in considerazione i dati sulle collisioni, così come il tasso di crescita fisica dei pianeti, abbiamo scoperto che Keplero 34 (AB)b (un pianeta circumbinario, nda) avrebbe faticato a crescere dove si trova adesso”. Per questo l’ipotesi è che i pianeti con due soli si siano formati lontano, molto lontano, dal sistema binario di cui fanno parte, dove sarebbero migrati solo in un secondo momento. Una teoria, spiegano gli scienziati, valida per tutti i pianeti circumbinari, ad eccezione forse di Kepler-47 (AB)c, che si trova già molto lontano dal sistema binario attorno cui orbita rispetto ai propri simili. Anche Tatooine quindi si sarebbe formato lontano da dove lo avremmo conosciuto nell’universo di Star Wars.

28/01/14

Signora avidità | Pessima consigliera: le amministrazioni pubbliche come il povero contadino della fiaba dell'oca dalle uova d'oro!

Generalmente, come insegna il fatato universo delle fiabe, la "signora" avidità, risulta essere una pessima consigliera: lo rammentiamo tutti quanti, sopratutti i più attempati negli anni, la celebre fiaba in cui l'avido contadino in possesso dell'oca magica dalle uova d'oro, stanco di aspettare il suo tanto agognato "uovo d'oro" ogni giorno, credendo che l'oca ne fosse pregna, decise di ucciderla! Ma ahimè, ebbe una triste sorpresa: non trovò nessun uovo d'oro all'interno d'essa, perdendo nella disperazione più cupa la sua unica fonte di sostentamento.

La fiaba viene presa come esempio in uno studio recente effettuato dall'associazione europea delle imprese di osservazione della terra, Earsc, messo in atto al fine di dare ancor più importanza a ciò che una politica aperta e gratuita nella distribuzione dei dati ottenuti dalle molteplici missioni spaziali finanziate con i soldi dei cittadini europei.

L'oca dalle uova d'oro
Dicevamo per l'appunto, come negli anni '90 si fosse diffusa la convinzione che le amministrazioni pubbliche fossero a riposare e gongolare su di una miniera d'oro: i dati e le informazioni che venivano generati nell'ottemparare i loro compiti, per poi essere rivenduti agli utenti per ridurre la necessità di sovvenzioni e anzi diventare centri di profitto.
Insomma, come il contadino della storia dell'oca dalle uova d'oro, ogni giorno potevano godere del denaro con modesti costi aggiuntivi dalla loro attività istituzionale.
index
L'oro che arriva dalle stelle

Ma, così come capitò al contadino della favola i governi e le agenzie governative si facere tentare tanto da questa idea da rendere a pagamento anche informazioni prima gratuite, quasi uccidendo l'oca!
Già alla fine degli anni '90 ci si rese conto che questa politica lungi dal moltiplicare il valore dei dati lo distrugge, scoraggia il loro utilizzo, aumenta i costi della loro gestione, e cosa più che mai importante ai giorni nostri, impedisce la nascita di imprese innovative che da questi dati possono creare attività di successo, che a loro volta genereranno benessere per i cittadini e tasse per i governi. 

I benefici diretti e indiretti
Questo tema vero per tutti i Psi (public service information), è estremamente importante per i dati di osservazione della terra. Nei prossimi mesi, con il contributo dell'Ue e dell'Agenzia spaziale europea, verrà lanciata in orbita la prima "sentinella", cioè il primo satellite che servirà il programma europeo Copernicus. Questo programma spaziale è il secondo frutto della politica europea dello spazio dopo Galileo, e rappresenterà, se ben utilizzato, un importante strumento per aumentare la sicurezza ambientale, le politiche di sviluppo sostenibile, ma anche lo sviluppo di una nuova economia basata sull'uso di questi dati.

Uno studio della Commissione europea ha stabilito che nei prossimi 15 anni Copernicus genererà oltre 20.000 nuovi posti di lavoro diretti, rispetto agli attuali 5.000 occupati del settore, soprattutto nel settore "down stream", cioè il settore di utilizzo e creazione di applicazioni dei dati di osservazione della terra, largamente presidiato da Pmi. Ma il beneficio indiretto offerto dall'integrazione di questi dati con altre informazioni (catasti, dati meteorologici, informazioni sul traffico) creerà oltre 80.000 nuovi posti in settori collaterali. Bisogna aggiungere che i dati delle Sentinelle saranno acquisiti su tutto il globo, ponendo in una posizione di vantaggio le industrie europee che da anni lavorano alla definizione di processi e sistemi efficaci per la loro elaborazione.

Ma perché questo accada è importante che i dati siano all'origine gratuiti, riproducibili e accessibili, per non spezzare la catena virtuosa del valore dei dati.
Esistono ormai molti esempi della validità di questo approccio, ad esempio nel 2011 gli Usa hanno deciso di rendere disponibili gratuitamente e sulla base di una politica aperta, i dati della missione Landsat. Questo ha consentito all'ente incaricato della distribuzione dei dati, l'Usgs, di fare consistenti economie sulle strutture di fatturazione e pagamento, mentre il cambio della politica dei dati, solo nella pubblica amministrazione ha consentito economie di oltre 200 milioni di dollari l'anno.

Entro la prossima primavera il Parlamento europeo dovrà approvare la legge che regolerà l'accesso ai dati, vi è un quasi unanime sostegno dai governi europei a una politica gratuita e aperta di accesso, dispiace che le uniche voci in controtendenza vengano dal nostro Paese, sembrerebbe che nelle sue diverse espressioni la rappresentanza italiana presso la Ue si è prima opposta fieramente, e in splendido isolamento, per poi spingere per una soluzione che limiti questa politica riducendone i benefici ai soli confini dell'Unione e proponendo una sua revisione entro due o tre anni.

Tale limitazione oltre a essere difficile tecnicamente da applicare, provocando anche un aumento dei costi del sistema di distribuzione dei dati, ridurrà l'orizzonte di stabilità del mercato dei dati scoraggiando l'effettiva realizzazione di investimenti privati, che hanno bisogno di stabilità e certezza delle regole su periodi medio lunghi. Sarebbe bene che l'Italia rivedesse la sua posizione sulla politica dei dati delle missioni spaziali europee, e al tempo stesso avviasse un dibattito sulla politica e l'accessibilità dei dati delle missioni nazionali, per cercare se possibile di salvare le oche nazionali, che se anche producono uova d'oro non sono distribuite con l'efficienza dovuta.

06/01/14

Dove finiscono i dati delle vecchie ricerche scientifiche?

Dove vanno a finire i dati delle vecchie ricerche scientifiche? Riuscire ad accedere ai dati è da sempre uno dei punti cardini su cui si basa la cultura scientifica moderna! Essere sempre e comunque in grado di avere la possibilità per gli scienziati di consultare ed effettuare verifiche sui risultati dei colleghi, per poi utilizzarli integrandoli nelle proprie ricerche.

Un sistema ottimo in teoria, che però in pratica rischia di essere solamente una mera illusione, per il semplice fatto che non solo sempre più ricercatori sono reticenti a condividere i propri risultati, ma ormai spesso capita che non si sa più nemmeno che fine abbiano fatto i dati originali di determinate ricerche. A suonare l’allarme è lo studio realizzato da un gruppo di ricercatori canadesi, pubblicato sulla rivista Current Biology.

index
Pen drive e Cd
I ricercatori hanno provato di recuperare i dati originali di 516 articoli scientifici che sono stati pubblicati tra il 1991 e il 2011. Gli studi scelti riguardavano tutti quanti il campo dell’ecologia, e in particolare la misurazione di  caratteristiche anatomiche di piante e animali, perché si tratta di analisi che vengono eseguite esattamente nello stesso identico modo ormai da decenni.

I ricercatori canadesi hanno contattato gli autori degli studi, e hanno chiesto loro di fornirgli i dati relativi all’articolo in questione. Se per i lavori risalenti a due anni fa non sono emersi particolari problemi, la percentuale di articoli di cui erano ancora disponibili i dati originali calava invece drasticamente nel caso di lavori più vecchi, e con una casistica a dir poco disarmante: il 17% in meno per ogni anno, tanto che solo per il 20%  degli articoli pubblicati negli anni ’90 risultavano ancora disponibili i dati originali.

Complotto? Truffa? Forse no, magari si tratta più che altro di distrazione e superficialità da parte degli scienziati. “Nella maggior parte dei casi i ricercatori hanno risposto “dovrebbero trovarsi in questo o quel luogo”, riferendosi magari alla soffitta della casa dei genitori, o a un dischetto per Pc, oppure pendrive di cui non vedono un lettore da 15 anni”, racconta su Nature Timothy Vines, ricercatore della University of British Columbia di Vancouver che ha coordinato lo studio. “In teoria i dati originali esistono ancora, ma in pratica il tempo e la fatica che dovrebbero fare i ricercatori per recuperarli rende la cosa proibitiva”. Persino contattare i ricercatori è risultata spesso un’impresa impossibile. Le chance di trovare un email funzionante diminuivano infatti del 7% per ogni anno trascorso dalla pubblicazione dell’articolo, tanto che Vines e colleghi sono riusciti infatti ad entrare in contatto solamente con il 37% degli scienziati cercati. Anche tra quelli con un indirizzo email aggiornato, solo poco più della metà si è degnata di rispondere alla loro richiesta.


Si tratta di una questione seria, perché (almeno per chi crede nell’Open Access) il progresso scientifico si fonda da sempre sulla condivisione delle conoscenze e dei dati tra ricercatori. La tendenza, invece, sembra tristemente andare nella direzione opposta. Specialmente in campo bio-medico, dove è in atto una vera e propria guerra tra le industrie del farmaco, che hanno tutto l’interesse a tenere segreti i dati delle ricerche da loro finanziate, e la comunità scientifica, che richiede il libero accesso ai risultati. Un’indagine presentata a settembre durante l’International Congress on Peer Review and Biomedical Publication di Chicago ha dimostrato ad esempio che in soli 4 anni, gli autori di articoli pubblicati sui prestigiosi Annals of Internal Medicine disposti a rendere pubblici i propri dati sono diminuiti drasticamente, passando dal 62% nel 2008 al 47% nel 2012.



04/12/13

Dallo spazio infinito per capire un vulcano!

Comprendere l’attività di un vulcano? Proviamoci dallo spazio! Facendo uso contemporaneo di dati satellitari e misurazioni al suolo, il risultato pare venire in aiuto a comprendere le possibili risalite di magma che precedono la ripresa dell'attività eruttiva del Siculo vulcano,  l’Etna. Questo è quel che riporta uno studio che ha preso vita dalla collaborazione tra il Consiglio nazionale delle ricerche (ovvero il Cnr), l’Istituto nazionale di geofisica e vulcanologia (Ingv) e l’Agenzia spaziale italiana (Asi) che è stato reso pubblico attraverso un articolo sulla rivista Scientific Reports di Nature.
Comprendere la struttura interna di un vulcano e il suo funzionamento è soltanto uno dei traguardi principali degli studi vulcanologici. A tal proposito i ricercatori possono fare uso soltanto su informazioni ottenute sulla superficie del vulcano e sull’analisi dei prodotti emessi (lava, gas, cenere, …).
Eruzione vulcanica

Questo specifico studio, per la prima volta, fa uso sinergicamente le misure della deformazione del suolo, il cui calcolo viene utilizzato tramite i dati ottenuti da radar satellitari come Ers/Envisat e Cosmo-SkyMed, oltre le informazioni sulle piccole variazioni del campo gravitazionale le cui misure sono recepite in prossimità della superficie del vulcano.

“Uno degli strumenti più importanti per la comprensione dei fenomeni che avvengono in profondità è lo studio delle deformazioni della superficie terrestre”, spiega Eugenio Sansosti del Cnr, “Deformazioni del suolo anche molto piccole, fino ad un centimetro, possono essere misurate dallo Spazio utilizzando sensori radar ad apertura sintetica, chiamati Sar, montati a bordo di satelliti”.

È per questo che l’Etna è costantemente monitorato dai satelliti della costellazione dell’Asi Cosmo-SkyMed che dal 2009 acquisiscono con estrema regolarità, sul vulcano italiano.
Piccole variazioni della superficie terrestre sono l’effetto misurabile di vari processi geofisici, spesso complessi e sovrapposti. Tuttavia, nonostante l’estrema precisione delle tecniche Sar satellitari, non sempre fenomeni importanti, quali la risalita di magma in un vulcano, danno luogo a deformazioni del suolo significative.

“È proprio in questi casi che l’integrazione con altri dati fornisce i risultati più interessanti”, prosegue Sansosti. “Nel nostro lavoro, in aggiunta ai dati Sar, abbiamo utilizzato dati gravimetrici raccolti dall’Ingv. Con tali dati, che misurano le variazioni del campo gravitazionale, è possibile avere una stima delle masse magmatiche presenti sotto la superficie del vulcano. Questo permette di individuare fenomeni di risalita del magma anche se non causano deformazioni del suolo misurabili”.

Un lavoro che apre nuove prospettive per la comprensione del funzionamento dei vulcani. La risalita di magma, tuttavia, non è l’unico fenomeno che causa variazioni della superficie terrestre e del campo gravitazionale. “In un sistema vulcanico così complesso come l’Etna, molti sono i fattori che influenzano questi parametri”, spiega Gilda Currenti dell’Ingv: “La capacità di creare nuovi modelli numerici che permettano, mediante simulazioni al computer, di separare i diversi fenomeni che avvengono contemporaneamente, permetterà di capire con maggiore precisione quando il vulcano inizierà una nuova fase eruttiva”. Ed è questa la sfida per il futuro.

Questo studio è stato co-finanziato dall’Agenzia Spaziale Italiana tramite il progetto Sar4Volcanoes che ha anche messo a disposizione i dati Sar acquisiti dai satelliti Cosmo-SkyMed. Per favorire la conoscenza dei fenomeni vulcanici, l’Asi aderisce all'iniziativa internazionale Supersites, mettendo a disposizione della comunità scientifica internazionale i dati della missione Cosmo-Skymed su alcuni vulcani nel mondo come Hawaii e Islanda.





20/10/13

Extraterrestri? La verità tra le stelle!

Extraterrestri? La verità tra le stelle! Di certo uno degli argomenti più frequenti nella nobile storia del cinema è il primo contatto... con gli extraterrestri ovviamente. Non c'è giorno, mese, anno che ad Hollywood non si pensi a produrre almeno una decina di film con protagonisti gli alieni, o extraterrestri che dir si voglia. Troverete interessante sapere come il boom degli alieni abbia avuto inizio negli anni ’50 del XX secolo e come la loro prima apparizione risalga a ben oltre 100 anni fa, in una pellicola francese dal titolo “Viaggio nella Luna“.
L'argomento ha generato molta curiosità nel campo cinematografico, ai vari registi di documentari e autori. Sono venute alla luce quindi svariate teorie riguardo il primo contatto degli extraterrestri con la nostra specie, i presunti rapimenti, sulla loro influenza sulla nostra storia, sulla loro presenza celata tra noi, e cosi via dicendo. In qualunque negozio di libri avrete molte probabilità di trovarvi in un intero scaffale pregno di questo genere di libri, invece su tutti i canali televisivi specializzati in documentari almeno una sera alla settimana viene dedicata esclusivamente a queste teorie.
Appare abbastanza evidente che la popolarità di questo argomento, indipendentemente dal tipo di fonte informativa, ha fatto si di renderlo costantemente onnipresente nelle nostre vite. Se, quindi, veniamo assaliti continuamente con storie simili a queste, sarà poi possibile che le nostre convinzioni personali ne possano risentire, possano essere influenzate?
Extraterrestri

Come sempre, quando le nostre menti iniziano ad indagare ci assale con veemenza una domanda, ci rivolgiamo a Ipsos Global @dvisor per cercare di venire a capo e compredere cosa ne pensa il mondo, la società che ci circonda. Buon per noi per noi il fatto che è stato eseguito tre anni fa uno studio speciale riguardo la effettiva esistenza degli extreterrestri. Da quanto si può dedurre dai risultati, pare che un partecipante su cinque a livello mondiale crede che esseri alieni siano arrivati sulla Terra e che abbiano vissuto tra noi. A livello nazionale, le percentuali più elevate si registrano in India (45%) e in Cina (42%), mentre all’estremità opposta dello spettro figurano Svezia, Belgio e Paesi Bassi con appena l’8%. Generalmente sono le donne ad essere restie (83%) più degli uomini (78%) a non credere che gli alieni siano già presenti nella nostra società.
Naturalmente stiamo parlando di dati raccolti tre anni fa. Da allora abbiamo guardato molti film e documentari e ascoltato le teorie più strane sugli alieni. E voi cosa ne pensate? Si sono già insediati sulla Terra o sono ancora nello spazio infinito in attesa del momento giusto?

19/10/13

Il cervello umano imitato da un chip! IBM fa sul serio.

Il cervello umano imitato da un chip! IBM fa sul serio. I ricercatori di Ibm sono impegnati nell'elaborare un chip che sia in grado di imitare le attività cerebrali dell'essere umano. Il progetto chiamato SyNAPSE che riproduce per l'appunto la struttura e l'architettura del cervello umano, alfine di eguagliare l'efficienza, la compattezza e l'economicità nell'utilizzo delle risorse.
SyNAPSE l'acronimo che che vuol dire: "sistemi di elettronica neuromorfa, adattativa, plastica e scalabile", è già allo studio dal 2008. Nei giorni scorsi, durante la conferenza sulle reti neurali IJCNN a Dallas, IMB ha reso noto di aver ricevuto dal DARPA (l'ente di ricerca del Ministero della Difesa statunitense) altri 12 milioni di dollari di finanziamenti proprio per continuare le ricerche, in collaborazione con la Cornell University e iniLabs.
I computer attuali sono strutturati in base ad una architettura ideata da Von Neumann, e lavorano in maniera sequenziale, procedendo alla risoluzione dei problemi uno alla volta. Tale metodologia ha portato ai risultati noti a tutti, ma sta per giungere al fine mostrando i suoi limiti. Costretti dalle esigenze sempre più pressanti dello sviluppo, la necessità di aumentare la potenza di calcolo, porta a difficoltà e oneri che diventano insostenibili, richiedendo un dispendio di energia è sempre più alto, e non è comunque sufficiente per gestire in tempo reale le enormi quantità di dati necessarie per comprendere a fondo la realtà.
Chip IBM emulatore del cervello

In tal modo il nostro cervello è molto più capace di un computer, nonostante sia più lento, approssimativo e consumi solo l'equivalente di una lampadina da 20 Watt.
Lo scopo di IBM è quindi quello di imitare le capacità del cervello umano, attraverso un modello di calcolo cognitivo che imiti il funzionamento dei neuroni, delle sinapsi, e funzioni in maniera asincrona e parallela. La programmazione avverrà tramite i cosiddetti corelet, reti neurosinaptiche specializzate nello svolgere compiti di base, che potranno essere combinati e interconnessi per svolgere funzioni più complesse. IBM è al lavoro di un ecosistema software per programmare in questo modo nuovo, in cui architetture e programmi sono strettamente intrecciati.
L'obiettivo a lungo termine è quello di costruire l'equivalente di un cervello umano: un sistema di dieci miliardi di neuroni e centomila miliardi di sinapsi, che consumi un solo Kilowatt e occupi meno di due litri di volume, che dovrebbe essere in grado di interpretare in tempo reale dati sensoriali continuamente variabili. Potrebbe essere la via verso la tanto cercata intelligenza artificiale.

18/10/13

La pillola che ti rammenta le medicine!

La pillola che ti rammenta le medicine! Avete capito bene, si tratta di una pillola che appena ingerita, dallo stomaco, viene inviato un messaggio, diretto a voi oppure al vostro medico, per informare che il medicinale è giunto a destinazione ed sopratutto sia proprio quello giusto. Pensarete che sia fantascienza...niente affatto! Si tratta di una tecnologia già usata in via del tutto sperimentale e che dovrebbe essere messa in commercio entro il prossimo anno.
Potrebbe apparire assurdo, ma quello di assumere dei medicinali sbagliati è un problema molto ricorrente. In base a quanto afferma l'Organizzazione Mondiale della Sanità, le somministrazioni errate di medicine arrivano al 50% dei casi. Ad aggiungersi agli errori dei pazienti, particolarmente quelli anziani, nel fare fede alle dosi e i tempi, ci sono quelli dei medici e farmacisti nel prescrivere la cura. Oltretutto può capitare che i pazienti scordino di informare il medico di medicinali di cui stanno già facendo uso, e che possono generare effetti indesiderati se mischiati con altri. Appare chiaro che un sistema che permettesse di verificare con premura e precisione ciò che il paziente ha ingerito, renderebbe migliore di molto la qualità delle cure.
Esattamente questo lo scopo di un sistema concepito dall'azienda californiana Proteus Digital Health, che ha realizzato un sensore ingeribile e grande come un granello di sabbia. Costruito interamente con materiali assorbibili senza danni dal corpo umano (rame, magnesio, cloruro di sodio), non necessita di batterie, in quanto alimentato dalla reazione con gli acidi gastrici. Il sensore viene introdotto in ogni pillola, e dopo averlo ingerito, si attiva trasmettendo un debole segnale radio di identificazione, che permette di riconoscere con esattezza di che medicina si tratta.
Sensore in pillola

Affinchè il sistema funzioni, il paziente deve indossare uno speciale cerotto contenente un chip, che è in grado di intercettare il segnale trasmesso dal sensore ingeribile e di raccogliere altri dati riguardo alle funzioni vitali del paziente, che permettono di comprendere se la medicina sta facendo effetto. Il cerotto, che è usa e getta e va cambiato ogni settimana, comunica via Bluetooth le informazioni a uno smartphone che le salverà i dati trasmessi nella cloud. In tal modo il medico può avere a disposizione la cronologia di tutti i medicinali assunti e del loro effetto.
Al momento la tecnologia è in prova presso una catena di farmacie britanniche, che confezionano set di pillole che includono il sensore. Sono già state ottenute le autorizzazioni per commercializzare i sensori in Europa e negli USA.
Licenza Creative Commons
Quest'opera è distribuita con Licenza Creative Commons Attribuzione - Non opere derivate 3.0 Italia.