Pubblicato il

Corso di formazione Assistente di studio Odontoiatrico 2020

DGR 257 / 08.03.2019
Approvato con DDR nr. 711 del 04/06/2019 Progetto 3084-1-257-2019 – Percorso formativo per il conseguimento della qualifica di “Assistente di studio odontoiatrico”

Calendario

11.01-2020 – 10.10.2020
Venerdì 17.30 – 21.00
sabato 08.30-12.30 / 13.30-17.30

Costi

Formazione di 700H

2400€

Formazione fino a 540H

1.950€

Formazione fino a 300H

1.460€

Verifica Documentale dei titoli abilitanti già in possesso

300€ 

comprese 10H di aggiornamento, valide per l’anno successivo al conseguimento della qualifica professionale

Iscrizione

Versamento di 300€
Compilazione del modulo di preiscrizione
Invio del modulo compilato + ricevuta di
avvenuto pagamento a corsi@formaitalia.it

Per maggiori informazioni

Scarica la presentazione del corso

“L’avviso 02/19 finanzia la partecipazione ad attività formative a catalogo accreditate per un importo complessivo di € 500.000,00 (cinquecentomila/00)Ogni Ente proponente può partecipare a più di un’attività formativa individuale a catalogo, per un contributo pari all’ 80% dell’imponibile I.V.A. di ogni singola iniziativa, fino ad un valore complessivo massimo di € 1.500,00 (millecinquecento/00) di contributo”

 width=

Pubblicato il

DishPlay, il piatto smart che parla con la cucina

L’Internet of Things propone oggetti sempre più interessanti, dando la possibilità alle persone di realizzare progetti curiosi e avveniristici.

Tra i progetti più innovativi e promettenti, c’è sicuramente il DishPlay, il primo piatto smart che ti permette di dialogare direttamente con la cucina del ristorante.

Un piatto munito di un touch screen connesso alla rete con cui il cliente potrà ordinare e ricevere informazioni dettagliate sui piatti del menu comunicando alla cucina eventuali preferenze ed intolleranze.

Trattasi di un prodotto molto interessante che apre scenari intriganti per il mondo della ristorazione.

dishplay

 

Un prototipo del piatto è stato presentato all’Expo di Milano, grazie all’idea dell’imprenditore nel settore della ristorazione, Andrea Frizzarin,  e all’aiuto dell’architetto Giovanna Girardi ed al marmista Andrea Pongiluppi che ha dato forma al DishPlay.

via WebNews

Pubblicato il

Un quaderno che salva dentro il cloud quello che stai scrivendo a mano

Si chiama Rocketbook ed è  quello strumento  che generazioni di studenti hanno sempre sognato: far sì che quello che stiamo scrivendo a mano, magari durante una lezione assai densa, magicamente si trascriva in formato digitale: insomma, risparmiarsi il tempo sprecato alla tastiera. Oggi questo quaderno esiste, ed è già sul mercato a un prezzo di circa 20 euro. È uno strumento così interessante e utile che  ha letteralmente sbancato Indiegogo, ottenendo il 3000% di quanto richiesto.

 

rocketbook

Ma come sfruttare le potenzialità di RocketBook?

È tutto molto semplice: ogni pagina del quaderno contiene 7 simboli, ognuno dei quali rappresenta una categoria: viaggi, musica, sport, ecc, collegati a specifiche app, per esempio la musica con Dropbox, lo sport con Evernote, e così via.

Per selezionare dove deve essere archiviata la pagina che stiamo scrivendo è necessario tracciare uno scarabocchio sopra il simbolo corrispondente, per esempio quello che rappresenta la musica, e automaticamente ciò che abbiamo scritto a mano nella pagina viene inviato alla app corrispondente su pc o smartphone, per esempio Dropbox, Evernote, Google Drive o l’email. Basta scaricare la app di Rocketbook, progettata sia per iOS che per Android, e in un secondo le immagini di ogni pagina che abbiamo scritto vengono inviate alle cartelle che abbiamo precedentemente impostato e salvate in cloud in formato JPEG ad alta risoluzione. È accettato anche il formato .pdf. La app permette anche di “scannerizzare” (“scansionare” in italiano corretto) in questo modo pagine scritte su supporti diversi da Rocketbook, anche se lo spazio di salvataggio in questo caso è limitato.

rocketbook-app-1020x574

 

Ma la domanda che ci si farebbe a questo punto è:

Ma poi come si cancellano gli appunti sul quaderno?

Per scrivere su RocketBook non è richiesto l’utilizzo di una speciale penna, anche se utilizzando FriXion della Pilot, facilmente reperibile in cartoleria, è possibile cancellare gli appunti presi. Come? Mettendo il quaderno per 30 secondi in microonde. Di Rocketbook infatti ne basta solo uno: una volta esaurite le 100 pagine di cui è composto basta metterlo in microonde, e dopo 30 secondi il quaderno ci viene restituito come nuovo con le pagine intonse e pronto per un nuovo utilizzo.

Via iSchool

Pubblicato il

La fotocamera che stampa senza usare inchiostro

Si chiama SNAP ed è  la nuova fotocamera della Polaroid, presentato all’IFA 2015 la nuova,  che stampa istantaneamente le foto, senza usare inchiostro. Lo stesso principio di funzionamento della stampante portatile Zip, sempre della stessa azienda.

 width=

Il segreto è l’uso della carta speciale Zink (zero-ink, vale a dire zero inchiostro), che contiene cristalli color giallo, magenta e ciano. Inizialmente i cristalli sono incolori, ma quando parte la stampa il calore attiva i cristalli, colorandoli della tonalità appropriata.

Oltre a condividere la stessa tecnologia della stampante Zip, la fotocamera Snap ha anche un design e dimensioni simili (23 x 74 x 120 mm).

La differenza principale è che la Zip stampa le immagini ricevute in wireless da smartphone e tablet, mentre la Snap può scattare direttamente le foto grazie ad un sensore da 10 megapixel e un obiettivo f2.8 a lunghezza focale fissa, quindi senza zoom.

La fotocamera non ha uno schermo, ma ha un mirino a scomparsa sulla parte superiore, e ci sono tre modalità di scatto – a colori, bianco e nero e con filtro vintage Polaroid –  oltre a una modalità fototessera che scatta sei foto in dieci secondi, con o senza il classico bordo che contraddistingue le vecchie foto Polaroid.

In più si trova uno  slot microSDHC per salvare le foto in formato digitale e un timer da 10 secondi; indispensabile in quest’era dominata da autoscatti e selfie. Le foto sono grandi 2 x 3 pollici, senza bordi, e la stampa è praticamente immediata.

Polaroid Snap sarà disponibile alla fine del 2015 ad un prezzo di 99 dollari, vale a dire circa 88 euro. I pacchetti di ricarica con 100 fogli di carta Zink costano invece 25 dollari, poco più di 22 euro, ma online si possono trovare pacchetti a prezzi inferiori.

Via Tomshw

Pubblicato il

Un uomo recupera il tatto grazie a una mano robotica

Una mano robotica collegata al cervello ha permesso di far nuovamente percepire la sensazione del tatto sulle dita a un paziente paralizzato. Il risultato è stato ottenuto da uno dei gruppi di ricerca della Defense Advanced Research Projects Agency (DARPA), l’agenzia degli Stati Uniti che si occupa dello sviluppo di nuove tecnologie soprattutto in ambito militare.

La protesi è stata realizzata dall’Applied Physics Laboratory dell’Università Johns Hopkins (Baltimora, Maryland), che ha ricevuto in questi anni finanziamenti dalla DARPA per i suoi studi sui sistemi per utilizzare arti bionici sui pazienti che hanno subito paralisi di vario tipo.

A un paziente di 28 anni, paralizzato da più di 10 anni  a causa di un trauma al midollo spinale (nel quale viaggiano i messaggi del sistema nervoso centrale), sono stati applicati nel suo cervello alcuni elettrodi collegati alla mano robotica, nelle aree che si occupano del controllo dei movimenti e delle percezioni sensoriali. Dopo un po’ di esercizio, il paziente ha imparato a controllare i movimenti della protesi e a percepire alcune sensazioni tattili, grazie a una serie di sensori presenti sulle dita della mano robotica che rilevano il livello di pressione applicata sui polpastrelli.

Per verificare l’affidabilità del nuovo sistema, i ricercatori hanno bendato il paziente e lo hanno sottoposto a diversi test, nei quali le dita della mano robotica venivano toccate o compresse con intensità variabili. In quasi il 100 per cento dei casi, il paziente è riuscito a dire quale dito fosse premuto, secondo i dati diffusi dalla DARPA. Nel corso di un test i ricercatori hanno anche premuto due dita per volta della mano bionica, senza dire al paziente che avrebbero cambiato in corsa l’esame. Il paziente, sempre bendato, se n’è accorto e ha chiesto se stessero provando a prendersi gioco di lui, confermando quindi la sua capacità di percepire segnali tattili più elaborati provenienti da più di un dito della mano robotica per volta.

La protesi sviluppata dalla DARPA è ancora un prototipo e richiederà molte ricerche prima di essere prodotta in serie, ma sta comunque offrendo risultati molto promettenti. Finora si era riusciti a fare in modo che un paziente controllasse con il pensiero i movimenti di una protesi, mentre era risultato molto difficile fare in modo che fosse la protesi a comunicare le esperienze sensoriali al cervello, cosa che di fatto limitava molto l’utilizzo di questi arti artificiali. La nuova mano robotica permette di ricevere sensazioni importanti per controllare e muovere meglio l’arto, con movimenti più fini e accurati.

Via il Post

Pubblicato il

A 22 anni inventore della «app» che legge le immagini

«Stai guardando un cheeseburger su un piatto», dice la voce dal telefonino. La donna resta senza parole, attonita, prima che l’emozione la faccia esplodere in un incontenibile «Oh, mio Dio».

Ha appena provato un’applicazione in grado, se non proprio di ridarle la vista, almeno di far lavorare la sua sconfinata e allenatissima immaginazione fornendogli un’idea piuttosto precisa di ciò che ha di fronte. «Aipoly», l’ultima evoluzione di quella che viene definita la «visione artificiale», a novembre sarà disponibile in applestore. Da ottobre sarà possibile usare la versione beta, quella di prova, iscrivendosi già da ora al sito aipoly.com. Come funziona? Si fa una foto e al massimo in una ventina di secondi il cellulare descrive l’immagine.

Semplice? Solo in apparenza

Dopo il clic il programma trasmette via Internet la fotografia a un server, che confronta con altri milioni di immagini di tutti i tipi relative a oltre 300 mila oggetti diversi e, quando trova quella che le corrisponde, manda la risposta.

L’idea è venuta a due giovanissimi startupper, l’australiana 26enne Marita Cheng, premiata come giovane dell’anno 2012 nel suo Paese, e il 22enne italiano Alberto Rizzoli. Figlio dell’ex editore del Corriere della Sera Angelo, morto nel 2013, e di Melania De Nichilo Rizzoli, ex deputato di Forza Italia, ora responsabile sanità del partito, Alberto si è laureato in gestione aziendale a Londra prima di approdare a Mountain View (California) grazie a un finanziamento da 30 mila euro dato da Google per sviluppare Aipoly nella Singularity University. È un istituto sponsorizzato dal gigante di Internet che seleziona giovani imprenditori da tutto il mondo con l’obiettivo ambizioso di assisterli in progetti che potrebbero migliorare la vita di un miliardo di persone entro dieci anni. Singularity è stata fondata nel 2008 da Raymond Kurzweil, 67 anni, pioniere nel riconoscimento ottico dei caratteri e nelle tecnologie per ipovedenti.

Come è nato Aipoly?

 width=

«Eravamo a Google e un ingegnere ci parlava dei problemi legati alla capacità di vedere di auto e robot e dei problemi che hanno nel riconoscere il mondo fisico», racconta Rizzoli. Uno dei limiti di queste macchine, infatti, è che di fronte a un bambino e a un cono stradale che non possono evitare, non sanno ancora distinguere quale dei due è meglio investire. «Poi abbiamo assistito alla dimostrazione di un sistema in grado di fare una narrazione semantica, cioè di contestualizzare autonomamente frasi e parole. Abbiamo pensato a come applicare le due cose», aggiunge. Aipoly analizza, riconosce e descrive le figure e la loro posizione, colori, ruolo e azioni, ad esempio se una persona sta correndo o sorridendo. In pochi secondi, chi non vede può, ad esempio, sapere quello che stanno indossando i suoi figli, riconoscere cartelli stradali, oggetti fuori portata, il prezzo di un vestito. Tutto senza l’assistenza di altre persone».

Steve Mahan, che presiede il centro per non vedenti di Santa Clara (California), il primo a testare le auto di Google che si guidano da sole, di Aipoly apprezza «l’aiuto che dà a costruire un’immagine mentale, perché solo alcuni ciechi sono capaci di formulare tali immagini». Per migliorare le prestazioni dell’applicazione è necessario aggiungere sempre più immagini al database, cosa demandata a un gruppo di programmatori. «Abbiamo fatto provare l’applicazione a 88 non vedenti e ne sono stati entusiasti. Ci sono 285 milioni di persone nel mondo come loro ed entro il 2020 uno su tre utilizzerà uno smartphone», considera Rizzoli, l’imprenditore.

Via Sociale.Corriere

Pubblicato il

Canon ha creato un sensore da 250 megapixel

Un sensore CMOS in grado di catturare immagini da 250 megapixel, in pratica foto da 19.580 x 12.600 pixel

Il sensore APS-H CMOS stabilisce un record in termini di risoluzione e per le sue dimensioni (29,2 x 20,2 mm) e secondo quanto comunicato dal produttore permette di distinguere le iscrizioni sul lato di un aereo a 18 km di distanza. Il sensore nel formato APS-H è più grande dell’APS-C ma più piccolo di quelli usati nelle fotocamere full-frame, sfruttato nella vecchia EOS-1D.

Un girato creato con questo sensore  permette di ottenere video con una risoluzione di circa 125 vote superiore al Full HD (1.920 x 1.080 pixel) e 30 volte superiore a quella 4K (3.840 x 2.160 pixel). Canon dichiara che la tecnologia potrebbe essere sfruttata in “strumenti di videosorveglianza e per la prevenzione del crimine, dispositivi di misurazione industriali ad altissima risoluzione” e nel campo “dell’espressione in forma visiva”.

Ci vorrà ad ogni modo del tempo prima di vedere integrato il sensore negli apparecchi DSLR; l’annuncio è una indicazione precisa di come questa tecnologia sia ancora in continua evoluzione.

Già qualche tempo addietro era stato annunciato un sensore APH-S da 120 megapixel, un numero di pixel è equivalente a quello dei fotorecettori contenuti nell’occhio umano.

Via Macitynet

Pubblicato il

Il Vivid Sydney media

Vivid Sidney, il più grande festival di luci, musica e idee, ha acceso il porto di Sidney, in Australia, e i luoghi più iconici della città, come l’Opera House, per un evento che durerà 18 giorni, dal 22 maggio all’8 giugno.

Oltre 60 installazioni luminose e proiezioni in 3D hanno trasformato gli spazi urbani in luoghi incantati, per un evento che lo scorso anno ha attratto ben 1,43 milioni di visitatori da tutto il mondo.

Pubblicato il

Un guanto che aiuterà i non vedenti a fare spesa

Un team di ricercatori della Penn State University ha messo a punto un guanto smart che permetterà ai non vedenti di fare spesa senza troppe difficoltà. Si tratta dello smart glove “Third Eye” (“Terzo Occhio”)

L’obiettivo è quello di fornire alle persone non vedenti uno strumento che le aiuti a fare spesa, un’attività quasi quotidiana per molti, ma che in presenza di una disabilità come quella visiva può diventare problematica.

Funzionamento

 width=

Il funzionamento è molto semplice: sul guanto è presente una videocamera che inquadra i prodotti sugli scaffali, riconoscendoli grazie ad un apposito software che impiega algoritmi avanzati. Un sistema che trasmette vibrazioni di entità variabile alla mano guida dunque verso la posizione in cui è possibile trovare gli articoli desiderati, permettendo di orientarsi all’interno dei negozi. In altre parole, una soluzione hi-tech che ha come scopo quello di migliorare concretamente la vita degli ipovedenti.

Non è la prima volta che qualcuno pensa alla realizzazione di guanti smart: lo ha fatto anche Google, nell’ormai lontano 2012, depositando un brevetto relativo ad una tecnologia legata alla realtà aumentata, forse da affiancare agli occhiali Glass. Da allora del lavoro portato avanti nei laboratori di Mountain View non si è più saputo nulla. Quello della Penn State University è invece in piena fase di test. Servirà diverso tempo affinché la tecnologia possa essere ottimizzata, perfezionata e infine integrata all’interno di un prodotto destinato alla commercializzazione. L’idea è comunque certamente da apprezzare e merita supporto.

Queste le parole di Michelle McManus, consulente del progetto e membro della National Federation of the Blind, che spiegano l’utilità di Third Eye.

Dobbiamo sempre trovare qualcuno che ci aiuti nei negozi, poi è necessario spiegare a quella persona esattamente cosa si sta cercando. Apprezziamo il progetto Third Eye soprattutto perché è partito fin da subito con l’aiuto di persone cieche r ipovedenti, mentre altri ci vengono proposti solo in seguito, per scoprire che non funzionano correttamente.

Via WebNews

Pubblicato il

Dyslexia Font : il font che spiega la dislessici

Daniel Britton, designer ormai giunto brillantemente alla fine degli studi e in cerca di un impiego, ha scoperto durante l’ultimo anno alla London School of Communications di essere dislessico.

Sì, avete letto bene, proprio alla fine del suo percorso di studi si è accorto di soffrire di dislessia e di aver completato gli studi senza saperlo. Sicuramente, era consapevole della fatica che faceva nel leggere, scrivere e nel prestare attenzione ad ogni lezione.

Ma l’intuizione giusta arriva sempre quando meno te l’aspetti e, alla luce della nuova consapevolezza, si è messo al lavoro per spiegare le difficoltà quotidiane e trasmettere il disagio che vive un dislessico mentre svolge azioni “ritenute normali”.

A parole, si sa, è veramente difficile spiegare la dislessia. Invece, lui, aveva tutti gli strumenti giusti per descriverla e, addirittura, farla per “farla vivere” ai non-dislessici.

Infatti, per spiegare ai compagni e agli insegnanti le difficoltà incontrate negli anni di studio, ha realizzato nientemeno che un font: il Dyslexia Font.

Dyslexia Font, un progetto tra grafica, comprensione ed empatia.

Daniel Britton, da buon designer, è partito scegliendo come base l’Helvetica, il font più amato di sempre dai grafici. Poi, ne ha sottratto circa il 40% delle linee. Questo è il risultato:

Cercando di leggere questi testi, proverete il senso di frustrazione che provoca la dislessia: si legge più lentamente e si fa più fatica a comprendere il significato.

Dyslexia Font è stato ideato su due piani, il primo è quello di rispondere a una curiosità, di fare chiarezza su “qualcosa” che a parole risulta difficile spiegare.

Infatti, scommettiamo che dopo aver visto queste immagini avete esclamato “Ah, finalmente ho capito!”.

L’altro piano è quello di dare vita a una campagna di sensibilizzazione a livello nazionale (e non solo).

Sul blog del designer leggiamo che sul pianeta vivono quasi 8 miliardi di persone e circa il 10% della popolazione è dislessica. Lavorando sulla comprensione e sull’empatia fra dislessici e non-dislessici, si potrebbero fornire le soluzioni e gli strumenti adeguati agli studenti dislessici.

Infatti, Dyslexia Font è sbarcato su crowdfunder.co in cerca di finanziamenti. L’obiettivo è raggiungere 2000 dollari per finanziare la progettazione, la stampa e la divulgazione del libro nelle scuole primarie e secondarie.

Il tutto per fornire una solida formazione agli studenti dislessici di tutte le età e, un giorno, di ogni paese (il libro, per ora è previsto solo in lingua inglese come scritto qui).

Via TPMagazine

Pubblicato il

Scribble, la penna che riproduce 16 milioni di colori

Scribble è una penna “magica” che realizza un sogno che pensavamo impossibile: poter riprodurre un qualunque colore che abbiamo sotto al naso.

Vi immaginate a quante infinite possibilità di espressione artistica darà vita questa penna?

Scribble, infatti, è in grado di scansionare e riproporre il colore di qualsiasi oggetto riportandolo poi su carta (e non solo).

 width=

Qualsiasi colore di qualsiasi oggetto? Sì, o quasi, perché raggiunge (solo) quota 16 milioni di colori. Possiamo accontentarci.

Gli ideatori di Scribble hanno progettato due tipi di supporto: uno per il mondo cartaceo e uno per quello digitale. Scribble INK, infatti, ha una cartuccia d’inchiostro che permette di disegnare sulla carta, e Scribble STYLUS, traccia linee sul display di dispositivi mobili touch che hanno installata l’app Scribble+.

La penna è lunga 16 centimetri e pesa 39 grammi (34 grammi per la STYLUS), compresi il processore ARM 9 e il sensore. Entrambe le versioni sfruttano la tecnologia Bluetooth o un cavo micro USB per comunicare con il computer e con altri dispositivi. Inoltre, sfruttano i sensori colore a 16 bit per campionare i colori degli oggetti che ci circondano e riescono a memorizzare fino a 100 mila colori diversi in uno spazio di archiviazione di 1 GB.

Nel caso della INK, la cartuccia colore comprende ciano, magenta, giallo, bianco e nero. Una volta che il sensore ha rilevato il colore da riprodurre, questi colori vengono miscelati nella giusta quantità.

La penna al momento è in fase di concept e non si trova ancora sul mercato. E’ stata creata da Mark Barker e Robert Hoffman e presto sarà protagonista indiscussa su Kickstarter grazie a una nuova campagna di raccolta fondi. In seguito, sarà in vendita al prezzo di 149,95 dollari per la Scribble Pen e di 79,85 dollari per la versione stilo. 

Chi parteciperà alla campagna di crowdfunding godrà di uno sconto del 20 percento. La fase di pre-order inizierà in contemporanea alla compagna su Kickstarter, anche se non è ancora chiaro il prezzo e la durata media delle cartucce ricaricabili.

Via TP Magazine