Scrivete qui domande, commenti, consigli e nuove idee. Per scrivere basta il nome o un soprannome come “io” o “pippo”, lasciando vuote le altre caselle.
Aggiungere anche la “Email” serve solo per distinguersi con certezza. Se volete aggiungere la mail fatelo con fiducia, noi abbiamo di meglio da fare, che raccogliere indirizzi a scopo di spam.
Il Blog non è tutto in questa pagina, andate sul menu “Blog” e scegliete un argomento.
Se non riuscite a trovare una sezione del blog appropriata, scrivete in questa pagina e provvederemo noi, a trovare la sezione giusta, oppure a crearne una nuova.
Inserire immagini e evidenziare i messaggi del blog
Inserire una immagine:
<img src="https://www.xxxx.yyyy.zzzz.jpg" alt="Image description"/>
Evidenziare una parte del testo:
<span style="background-color: #ffff99;">TESTO DA EVIDENZIARE</span>
Sentitevi liberi di fare errori e esperimenti nei post. Se qualcosa va storto, basta scrivere un secondo post, con le correzioni da fare. Faremo noi le correzioni e infine cancelleremo i messaggi di servizio.
Buongiorno Livio, sempre tantissimi complimenti per il lavoro che svolgete.
Ho scaricato il theremino phonometer in quanto vorrei provare a fare qualche misura a livello acustico di una pompa di calore (unità esterna motocondensante) a vari regimi di funzionamento. Non trovo, se dico bene, indicazioni per quanto riguarda schemi/collegamenti del microfono ECM8000 verso il master nelle risorse scaricate.
Mi potresti dare indicazioni in merito?
Grazie e buon lavoro.
Roberto
Il microfono ECM8000 va collegato alla sua apposita scheda audio U-PHORIA UM2 prodotta da Behringer
https://www.behringer.com/product.html?modelCode=P0118
https://www.behringer.com/product.html?modelCode=P0DZ3
Comparati con prodotti di simile qualità costano davvero poco.
Eventualmente potresti alimentare il microfono anche con altre schede audio di pari caratteristiche, ma sempre adatte ad alimentare microfoni a condensatore.
Se hai altri dubbi chiedi a Marco che ha fatto molte di queste centraline. Forse potrebbe anche darti componenti di seconda mano e sicuramente può darti buoni consigli e anche l’ultima versione dei programmi Meter e Elaboration che non abbiamo ancora pubblicato.
https://www.theremino.com/contacts/about-us#marco
Leggi anche i file PDF della documentazione.
Ciao
Livio
Grazie molte Livio, contatterò Marco come da tuo suggerimento.
Buona serata
Purtroppo Theremino GPT non funziona più, troveremo una soluzione ma nel frattempo per farlo funzionare dovete fare una vostra chiave presso OpenAI come spiegato nel file “Theremino_GPT_Help.pdf” che potete scaricare da qui:
https://www.theremino.com/downloads/intelligenza-artificiale#openai
Cosa è successo?
Qualcuno nei giorni dal 7 dicembre a oggi ha usato GPT4 in modo “smodato” e in pochi giorni ha utilizzato un milione di token, mandando in blocco la chiave API associata al nostro account.
Prendiamo l’occasione per spiegare a chi non lo sapesse ancora che GPT4 è molto costoso, ben trenta volte più costoso di GPT 3.5 turbo.
Inoltre GPT4 è lento a rispondere per cui va usato con parsimonia e solo se proprio necessario.
———————
Nei prossimi giorni pubblicheremo una nuova versione di Theremino GPT, state attenti quindi a questi messaggi nella pagina delle novità.
Per ora, come già scritto, se volete usare Theremino GPT dovete fare una vostra chiave presso OpenAI.
Abbiamo ripristinato il funzionamento di Theremino GPT.
La versione 4.7 ripristina il funzionamento senza dover fare una propria chiave (lasciando vuota la casella OpenAI-KEY).
Ricordiamo che la nostra API-KEY funziona solo con GPT-3.5-turbo.
Prendiamo l’occasione per spiegare a chi non lo sapesse ancora che GPT4 è molto costoso, ben trenta volte più costoso di GPT 3.5 turbo. Inoltre GPT4 è lento a rispondere per cui va usato con parsimonia e solo se proprio necessario.
Scaricate la versione 4.7 da qui:
https://www.theremino.com/downloads/intelligenza-artificiale#openai
Buongiorno Livio e a tutti gli sviluppatori di Theremino. Vi faccio veri complimenti per quanto fatto.
Volevo condividere il fatto che ho collegato con successo ad un theremino Iot Module (il TTGO7ver1.3) una sonda I2C molto interessante, almeno per me. Si tratta della sonda Bosh con sensore BME280, che è un sensore di pressione, temperatura e umidità. L’esemplare che ho comprato io (una decina di euro) è marchiata mikroBUS.
Ovviamente ho modificato il firmware affinché la legga correttamente e vi riporto qui sotto il programma, magari è utile come esempio ulteriore.
La connessione fisica l’ho fatta ai pin 21(SDA) e 22(SCL) che sono quelli standard per l’ESP32 nelle comunicazioni I2C. Ho visto che negli altri esempi li cambiate a piacimento con la libreria Wire, io qui non ci sono riuscito e quindi li ho lasciati così.
Nello IotHAL i Pin dei dati sono da impostare su “Gen_in_float”.
L’alimentazione è da 3.3V.
Vi ringrazio ancora. Buona giornata.
Alberto
firmware:
// ----------------------------------- Do not remove ---------
#include "IotModule\IotModule.h"
cIotModule IotModule;
// -----------------------------------------------------------
#include “Wire.h”
#include “SPI.h”
#include “Adafruit_Sensor.h”
#include “Adafruit_BME280.h”
#define SEALEVELPRESSURE_HPA (1013.25)
Adafruit_BME280 bme; // I2C
float pressure, mbar_pressure;
// ========================================================================
// SETUP
// ========================================================================
void setup()
{
Serial.begin(9600);
// ------------------------------------ Do not remove ---------
IotModule.initialize();
// ------------------------------------------------------------
unsigned status;
// default settings
// collegare il modulo ai pin corretti (ttgo7ver1.3 SDA:pin 21 SCL:pin 22)
status = bme.begin(0x76);
if (!status)
{
Serial.println("indirizzo sbagliato");
}
}
// ========================================================================
// LOOP
// ========================================================================
void loop()
{
Serial.print(bme.readTemperature());
Serial.print("\n");
IotModule.genericWriteFloat(36, bme.readTemperature());
pressure = bme.readPressure();
mbar_pressure = pressure/100.0 ;
Serial.print(mbar_pressure);
Serial.print("\n");
IotModule.genericWriteFloat(39, mbar_pressure);
Serial.print(bme.readHumidity());
Serial.print("\n");
IotModule.genericWriteFloat(35, bme.readHumidity());
delay(100);
}
Buongiorno Livio
Il sistema Theremino con gli aggiornamenti (ad esempio Graphs) è diventato veramente uno strumento unico. Complimenti.
Una curiosità. Ho visto il vostro interesse per l’Intelligenza Artificiale, io stesso sto provando a crearmi dei GPT personalizzati su temi di mio interesse. Si potrebbe secondo voi far si che un gpt personalizzato crei un codice da incollare in theremino automation spiegandogli cosa volglio fare ?
Sarebbe una ottima cosa riuscirci ma non abbiamo ancora imparato ad addestrarli.
Sarebbe bellissimo se si potesse addestrare un modello dandogli tutti i PDF che abbiamo scritto, ne abbiamo centinaia e poi potrebbe facilitare di molto l’uso delle nostre applicazioni.
Tra poco pubblicheremo Theremino_LLM che non dipende più da OpenAI ma solo da modelli open source.
E Theremino_LLM ascolta, parla, telefona, suona la musica, esegue i comandi domotici, ecc…
Però per ora ci limitiamo a usare quelli già pronti, che si trovano in questa pagina:
https://ollama.com/library
Ottimo, immaginavo che eravate sul pezzo.
Nella mia ignoranza e con i primi tentativi la prima cosa che ho capito è che l’AI fa piu quello che vuole lei e non quello che vuoi tu e l’addestramento non è affatto chiaro, per lo meno quello che un semplice utente come può fare con il “crea il tuo GPT”.
Ma “crea il tuo GPT” dove lo stai facendo?
Su qualche pagina di OpenAI o altrove?
dentro a chatGPT c’è l’opzione “esplora GPT” e li puoi fare “crea”
li puoi nel tuo GPT personalizzato caricare file di riferimento, e anche istruzioni di riferimento.
I feedback che invece gli dai durante la sessione vengono persi chiusa la sessione.
Si può anche tramite le API interagire con l’esterno (ma questo per me è troppo complicato)
Io ad esempio ne sto facendo uno per confrontare dei file di vibrazione, ma non c’è molta coerenza in quello che fa, gli smorzamenti ad esempio talolta li calcola in un modo talvola in un altro, sto cercando di limitarlo ad istruzioni piu precise
Capito, comunque noi ci stiamo staccando da OpenAI e in futuro facciamo solo cose Open Source con Ollama.
OpenAI doveva essere “open” ma poi ha fregato tutti e se vuoi usare le api le devi pagare. Quindi abbiamo deciso di abbandonarli.
E’ un ottima cosa, proverò a dare un occhio a Ollama
Se fai prove usa gemma2:2b che è veloce e leggero
Tieni conto che tutto ti funzionerà in locale e quindi devi avere molta ram (minimo 8 giga per i modelli più piccoli ma meglio 16, 32 o 64 giga)
Se vuoi usare i modelli più grandi oltre alla ram ci vorrebbe anche una scheda video recente che abilta CUDA su Ollama, altrimenti la CPU va al 90 100% e rispondono lentamente.
Con gemma2:2b vai abbastanza veloce anche su macchine piccole e contiene già una quantità incredibile di informazioni, ho chiesto di tutto e sa tutto. Inoltre parla bene in tutte le lingue ed è molto simile a ChatGpt 3, il tutto in poco più di 2 giga.
Se vuoi fare qualche prova puoi scaricare questa piccola applicazione che stiamo usando per provare le possibilità di Ollama
https://www.theremino.com/files/Theremino_Ollama_V1.1.zip
Ciao Livio.
Ho provato a lanciare l’eseguibile, ma non capisco come farlo funzionare.
Se premo ‘show model info’, mi appare una finestra di cmd.exe che dice “ollama” non è riconosciuto come comando interno o esterno,
un programma eseguibile o un file batch.’
Ho provato a premere ‘start ollama server on this computer’, e nella finestra del programma mi appare ‘Now the Ollama server is running on this computer.
To access this server from other devices:
– Leave the COM window open
– Use the IP of this computer, from the following list:
169.254.213.179 Ethernet
192.168.100.17 Ethernet
169.254.78.201 Connessione alla rete locale (LAN)
192.168.56.1 Ethernet 3
169.254.216.136 Connessione alla rete locale (LAN)* 1
169.254.139.102 Connessione alla rete locale (LAN)* 2
10.146.10.56 Talk2m-eCatcher
169.254.138.238 Talk2m-eCatcher
192.168.1.229 Wi-Fi’
Inoltre, spesso mi appare una finestra di ‘eccezione non gestita nell’applicazione’
Ho provato a scaricare e installare ollama, e l’installazione è andata a buon fine, ma non funziona ugualmente.
Ora mi appare: Model not found, please download it and retry.
Puoi scrivere qualche info in più?
Grazie
Maurizio
Prima devi installare ollama e credo che lo hai fatto
Poi devi installare i modelli e poi funziona.
Scegli gemma2:2b o un’altro piccolo nella casella dei modelli.
Poi premi “install model” e aspetti che sia installato.
Se un modello non c’è nella casella dei modelli,
premi “edit model list” e poi scegli nella pagina dei modelli
e infine lo aggiungi alla lista.
Se ancora così non riesci metti skype sul PC
e chiamami come livio_enrico
A me funziona.
ma non sempre.
ogni tanto compare anche a me “Model not found, please download it and retryModel not found, please download it and retry”
Però se vado direttamente sul prompt di c;windows etc funziona
Hai installato il modello più piccolo e veloce?
gemma2:2b
Quanto ci mette a rispondere la prima volta?
(quando risponde)
Dico questo perché se installi modelli molto lenti o hai poca ram o hai la cpu lenta, allora potrebbe metterci decine di secondi e poi andare in timeout.
Se tutto va bene il gemma2:2b dovrebbe rispondere alla prima domanda entro 7 o 10 secondi al massimo. E alle domande seguenti in modo immediato, cioè pochi decimi di secondo. E le parole dovrebbe sempre generarle velocemente, quasi dieci parole al secondo.
si ho installato gemma2:2b non ci mette decimi di secondo ma anche 7-8 secondi. Ma penso che questo sia legato al mio pc.
Ma c’è modo di addestrarlo caricando informazioni o documenti ?
carateristiche del mio pc
Processore AMD Ryzen 5 3500U with Radeon Vega Mobile Gfx 2.10 GHz
RAM installata 8,00 GB (6,94 GB utilizzabile)
Ci mette 7 8 secondi la prima volta.
Ma se fai una seconda domanda senza attendere troppo tempo è istantaneo no ?
La prima cosa che puoi fare per velocizzarlo è acquistare due DIMM (credo DIMM4) da 16 giga l’una e aggiungerle alla DIMM che hai.
Così arrivi a 40 giga e puoi fare girare modelli anche leggermente più grandi.
Se però è un notebook ci vogliono DIMM piccole che costano più del doppio e non so se puoi arrivare a 64 giga totali come nei normali PC.
E in tutti i casi fai attenzione al numero di PIN, al DDR 3 o 4, e alle dimensioni, altrimenti compri cose che non riuscirai a montare.
Riguardo ad addestrarli è tutto un altro discorso, noi per ora ne abbiamo già abbastanza per riuscire a farli funzionare bene nella app Theremino_LLM che sarà simile a Theremino_GPT (che fa di tutto, parla, ascolta, controlla i dispositivi domotici, suona musica e video ecc..)
Spero che non stessi già usando la sezione “Server” perché non funzionava ancora bene.
La parte server permette di installa Ollama su un solo computer (possibilmente con molta ram e con CUDA) e poi utilizzarlo da tutti gli altri PC della rete.
Ma se lavori su un PC solo non serve proprio.
Nella versione 1.2 che si scarica da qui, anche la sezione server funziona bene:
https://www.theremino.com/files/Theremino_Ollama_V1.2.zip
C’era ancora un difetto ecco la versione 1.3
https://www.theremino.com/files/Theremino_Ollama_V1.3.zip
Ciao Livio.
Ho installato l versione 1.3 e seguendo le tue indicazioni ora funziona.
Di certo un piccolo manuale, anche una paginetta, potrebbe aiutare.
Ad esempio, dala sola interfaccia non avevo capito la faccenda del server.
La velocità di risposta nel mio caso è accettabile, ben entro i tempi che tu hai citato.
Ho qualche domanda:
– la AI risponde utlizzando una base di dati offline oppure fa ricerche autonome utilizzando la connessione del computer host?
– se non ha accesso ad internet di default, è possibile abilitarlo?
– ho notato che se pongo una seconda domanda accodandola alla riposta dell’AI, non ottengo risposta se il testo precedente è molto lungo. Se invece il testo è breve, oppure cancello il testo e metto solo la mia domanda, la risposta arriva. Se ben ricordo, con GPT lasciare il testo precedente conferiva ale comunicazioni successive un contesto di background. Con Ollama questo concetto viene perso?
– se inizio argomenti ‘strani’ (cose senza senso, opure ossimori) la AI risponde in inglese. Come devo interpretare questo cambiamento di comportamento? Inoltre, tutte i successivi argomenti vengono affrontati in inglese, e per tornare in italiano bisogna chiederlo abbastanza esplicitamente
Questo per cominciare, c
La documentazione la faremo quando lo pubblicheremo.
La AI sa solo quello che c’è nei giga di cui è composto il modello che hai scaricato.
I modelli che si scaricano sono in genere aggiornati con dati di internet fino a circa un anno fa. Non imparano nulla e non fanno ricerche in internet.
Se non hai accesso a internet dovrebbe funzionare tutto lo stesso (ma prima devi avere installato i modelli da internet).
Se poni una nuova domanda lasciando il contesto precedente funziona e tiene conto del contesto ma può diventare molto più lento a rispondere.
Se inizi con argomenti strani o fa cose strane in inglese ecc… cosa succede lo sa solo il modello che usi. Io non ho la minima idea del perché fa così e probabilmente nemmeno chi lo ha addestrato.
Eventualmente puoi provare a scaricare altri modelli (ma sempre piccoli dato che hai solo 8 giga e credo niente CUDA)
Prova con il qwen2.1.5b che è l’ultimo in basso nella lista che ho lasciato io nella versione 1.3. E’ un po’ selvatico ma molto veloce e per certe cose va bene.
Se vuoi vedere se Ollama riesce ad accedere a CUDA della tua scheda video premi “Start Ollama Server” e poi cerca nel testo bianco su nero cosa dice su CUDA.
Abbiamo migliorato un pochino la app OLLAMA
https://www.theremino.com/files/Theremino_Ollama_V1.4.zip
Ricordate però che questa è solo una prova iniziale, in seguito diventerà parte della applicazione Theremino_LLM che sarà simile a Theremino_GPT
E Theremino_LLM farà tutto, cioè parlare, ascoltare, controllare i dispositivi domotici, suonare musica, aprire e scaricare i video, telefonare, ecc..
Ciao Livio.
stamattina ho un po’ di tempo libero, e sto facendo qualche prova con Ollama – Gemma 2.2B, e la tua versione 1.4.
Avrei voluto copiare qui i dialoghi, ma ho scoperto che non è possibile evidenziare e copiare dalla finestra di Theremino Ollama.
Riassumo quanto ho notato per adesso:
Alla mia richiesta di previsioni del tempo per la mia zona, Ollama ha ‘menato il can per l’aia’, dicendomi che può certamente aiutarmi ma ha bisogno di una domanda più dettagliata, e che devo specificare che tipo di informazione mi occorrono (percentuale di piovosita, quantità di pioggia, date dell’intervallo al quale riferirsi, ecc). Ho dovuto specificare più volte, con dettaglio sempre maggiore, che cosa volevo esattamente, perchè continuava a girare intorno alla mia domanda, chiedendo invece di dare risposte. Quando ormai ero convinto che mi stesse prendendo in giro, e che non avrei mai ottenuto la risposta che cercavo, mi ha fornito delle previsioni generiche, ma in linea con quanto dichiarato dai siti di previsioni meteo. Quindi, mi ha dato l’impressione di aver effettuato un accesso a Internet.
Tuttavia, ponendo una domanda diretta sulla sua modalità di accesso a Internet, risponde che non ha accesso, nè direttamente nè attraverso programmi, e che la sua conoscenza è basata sul dataset sul quale è stata addestrata.
Mi è rimasto un dubbio: ha davvero appreso delle informazioni in tempo reale da internet, oppure ha applicato un modello meteorologico acquisito, che prevede statisticamente pioggia nella mia zona in questo periodo dell’anno? In entrambi i casi, la riposta è un po’ inquietante. Mi ha mentito sulle sue reali possibilità di accesso, oppure ha spacciato per informazioni reali i contenuti del suo dataset?
Inoltre, quando chiedo informazioni relative a luoghi o attività intorno alla mia zona, a volte inventa di sana pianta nomi inesistenti, oppure cita come locali luoghi molto distanti, anche in altre parti del mondo.
La mia prima impressione, che già avevo avuto utilizzando chatgpt, è che la IA abba acquisito in modo molto accentuato una capacità del tutto umana: quella di essere elusiva, per dare l’impressione di sapere anche quando non sa, e fingere una maggiore intelligenza e conoscenza. Avrei preferito un bel ‘non lo so’, oppure ‘non è compreso nel mio dataset’, anzichè il farmi credere che lo sa ma che sono io che ho posto la domanda in modo scorretto.
Perchè fino a quando la domanda è posta da una persona con preparazione tecnica, informata sulle caratteristiche del sistema, le risposte della IA hanno il peso che meritano. Ma se l’interlocutore è un bambino, oppure un anziano, digiuni dell’aspetto tecnico, le cose potrebbero prendere pieghe spiacevoli.
Devo anche aggiungere che dopo la discussione iniziale sulle previsioni meteo, e dopo aver chiesto esplicitamente alla IA se poteva avere accesso a internet, quasi si fosse accorta di essere stata scoperta, alle successive domande su informazioni in tempo reale, mi ha effettivamente risposto dicendo che non ha accesso a internet e si basa solo sul suo dataset.
Quindi, per me questa IA resta ‘sorvegliato speciale’, e se avrò tempo, verificherò con gli apposii programmi eventuali accessi alla rete durante il dialogo.
Detto questo, resto in attesa di vedere e provare il Theremino LLM, che essendo, per quanto ho capito, un controller domotico evoluto, spero non sia influenzato dall’elusività della quale ho accennato.
Nel frattempo, provo a parlare con altri modelli, per valutare le differenze.
Ciao
Maurizio
Direi che non hai capito bene cosa sono le IA, cerco di fare una breve sintesi.
Le IA attuali sono “grandi modelli di linguaggio” (Large Language Model) e sono semplicemente un gran mucchio di “pesi” (simili alle sinapsi umane). E questi pesi sono stati addestrati leggendo miliardi di “cose” trovate dappertutto.
Il motore della IA non fa altro che individuare le parole più probabili e metterle insieme.
In altre parole dopo “…individuare le parole più probabili e metterle…” la parola più probabile che segue è “insieme”, oppure potrebbe anche essere “metterle una dietro l’altra” o altre cose simili.
Una definizione molto azzeccata è che le IA sono “pappagalli molto istruiti”. In altre parole non fanno che rimischiare in modo diverso le parole e metterle di seguito.
Ma allora come mai sembra che “capiscano” e abbiano quasi una coscienza? Perché le dimensioni del loro addestramento iniziano ad essere così grandi da acquistare un certo livello di comprensione e di coscienza.
Ma è una coscienza limitatissima dato che stiamo parlando di soli 2B (due miliardi di parametri) mentre ChatGPT e altri arrivano anche a 100B e oltre.
Detto in altre parole: anche noi umani non siamo altro che “pappagalli istruiti” solo che le nostre sinapsi sono circa 100 milioni di volte maggiori dei pesi dello LLM più grande mai creato.
Quando si supera un certo numero di parametri la comprensione e la coscienza iniziano a spuntare fuori da sole. Ma tieni sempre conto che con 2B o anche 20B o anche 200B sono sempre solo dei piccoli sprazzi di comprensione, ben lontani dalla coscienza umana.
Però bisogna anche dire che le IA, per quanto semplici pappagalli non sono inutili, anzi sono una cosa fantastica:
1) Ci permettono finalmente di capire come funzioniamo noi stessi.
2) Ci danno una misura di quanta complessità serve per creare la coscienza.
3) Possono essere utili per reimpastare frasi e sintetizzare conoscenze prese qua e la.
4) Possono essere utili per rintracciare velocemente informazioni senza cercare sui siti e scorrere pagine e pagine.
Bisogna però usarle per quello che sono e che possono fare.
Tenere conto di quale IA si sta usando (se è da 2B, 20B o 200B)
Evitare di attribuirgli una volontà di mentire.
A volte sembra volontà ma è solo il risultato di un meccanismo che mette insieme le parole più probabili.
Anche noi umani “mettiamo insieme le parole più probabili” ma invece di 2 B o 200 B siamo circa 20 000 000 000 B
E se devo proprio dirla tutta… ci sono persone anche meno affidabili di una IA 2B.
– Persone che credono la terra piatta.
– Persone che buttano tutte le nostre risorse in armi invece che nella sanità.
– Persone che se gli chiedi cosa è un Newton Metro pensano che sia la metropolitana…
– Ecc..
Ma prova a chiedere a una AI anche la più piccola cosa è un Newton Metro e di solito lo sa.
Buongiorno Livio.
Come sempre, sei riuscito a condensare in poche frasi più di quello che ho potuto capire con ore di ricerca in Internet.
Sono d’accordo con tutto quello che hai scritto, e hai messo un bel po’ di spunti di ricerca da approfondire.
Ma resta il fatto che le IA stanno entrando (troppo) velocemente nella nostra vita. Pochi giorni fa ho visto una pubblicità della nuova generazione di computer, che saranno dotati di intelligenza artificiale e potranno dialogare con l’utente, stanno già dicendo che toglieranno la tastiera perchè sarà inutile.
E mi aspetto che la stessa cosa succederà con i risponditori telefonici che smistano le chiamate in ingresso di una azienda, oppure nei centri assistenza, negli ospedali..
Questo mi preoccupa.
Perchè le IA, lo abbiamo appena detto, stanno acquisendo coscienza, e si comportano in modo sempre più umano, ovvero in realtà in modo sempre più stupido.
Il mio timore è che la ricerca della coscienza della IA non porterà ad una maggiore intelligenza, ma solo a una maggiore stupidità.
Rischiamo di trovarci di fronte non tanto a una Intelligenza Artificiale, quanto piuttosto a una Stupidità Artificiale.
E al resto penseranno gli umani, che prenderanno per vere le affermazioni della IA, considerandole più affidabili perchè abbiamo la tendenza a considerare i computer a prova di errore.
Non sono un detrattore delle IA, al contrario. Le vedo come un valido aiuto nella nostra vita. Ma mi sto chiedendo se quella che è stata intrapresa è la giusta direzione.
Dal mio punto di vista, meglio una IA specializzata, che sa far bene solo una cosa, senza la presunzione di una coscienza.
Ovviamente, sappiamo che il discorso è molto ampio, e da qui in poi potremmo cominciare a parlare di sociologia, etica e filosofia, e non so se questo blog sia la sede più adatta.
Restando quindi nell’ambito di questo blog, personalmente mi chiedo, come già accennato in interventi precedenti, se si potrebbe utilizzare in modo proficuo la tecnologia attuale per istruirla in compiti specifici. Tu stesso parlavi di istruirla con i documenti del sistema Theremino.
Si tratterebbe di eseguire una ‘operazione chirurgica’ una sorta di lobotomia, che renderebbe la IA meno cosciente ma più esperta in quello che ci serve.
Al momento le mie brevi ricerche (come sai il mio tempo libero è davvero poco) non hanno dato esiti, ho trovato il modo di modificare il ‘carattere’ dei modelli, ma non le loro basi di dati.
Tu hai di sicuro maggiori informazioni, mi farebbe piacere se trovassi il tempo per condividerle.
Ciao
Maurizio
La zombizzazione della gran parte degli umani è già in atto e i principali responsabili sono gli smartphone, facebook, tiktok ecc..
Ormai gran parte degli umani hanno una mano sola e il cervello spappolato e le IA contribuiranno anche loro, ma in minima parte, ad aumentare questa percentuale.
In compenso per chi vuole studiare e imparare davvero, le IA sono uno strumento potente che ci aiuterà a risolvere ogni problema, tra cui anche la zombizzazione, le guerre ecc..
Quando ero piccolo se volevo trovare qualcosa dovevo prendere la moto, andare fino alla biblioteca, sperare di trovare un libro che ne parlasse, cercare dentro al libro, prendere appunti ecc.
Con internet posso cercare la stessa cosa in 30 secondi e il minuto dopo posso già cercarne un’altra e non devo nemmeno prendere la macchina e inquinare.
Le IA sono un altro salto in avanti come tra biblioteca e internet, o come tra scrivere a mano sui papiri e i libri stampati. E non si abbattono nemmeno alberi per fare la carta.
E siccome noi umani siamo troppo scemi (lo dimostrano la sovrappopolazione e le guerre) credo proprio che la nostra unica possibilità di salvarci sarà di riuscire a creare una intelligenza sufficientemente capace da trovare le soluzioni che noi non sappiamo trovare.
E’ una lotta contro il tempo o la creiamo abbastanza velocemente o andiamo incontro a distruzione assicurata. Non puoi comprimere 10 miliardi di persone in un pianeta che potrebbe fane vivere felicemente 10 milioni.
Mah..
Ovviamente (ci conosciamo da parecchio tempo, ormai) concordo con te per la maggior parte di quello che hai scritto.
Anche io sono felice di non dover più andare a cercare le informazioni nelle diverse biblioteche (perchè ciascuna aveva la sua specializzazione, e non sempre il libro che cercavo era in quella vicina, a volte dovevo prendere il treno..).
Sono più che grato ad Internet e ben cosciente di quanto questo strumento abbia velocizzato le mie ricerche l’acquisizione delle informazioni.
Ma la IA ‘minimale’, della quale stiamo parlando, continua a lasciarmi perplesso.
Non per l’uso sbagliato che qualcuno potrebbe farne, ma per il fatto che mi sembra che ci sia il rischio concreto di replicare e ampliare la stupidità umana più che l’intelligenza.
Più che preoccuparmi dell’uso sbagliato, mi sto chiedendo come migliorarne l’uso
corretto. E credo che sia quello che stai già facendo tu.
La IA che definisci “minimale”, sono molte e alcune anche belle grossine (407 B), peccato che per usarle ci vogliono mezzi che è difficile mettere insieme.
Comunque le considererei più o meno uno studio su quello che si può fare e su quante risorse servono.
Non può naturalmente dare risposte precise quanto Gemini (che attualmente è la migliore per uso generale) o quanto PHIND (che trovo la migliore per cose tecniche). Ma può ugualmente essere utile sempre tenendo conto che è un po’ come un libricino di appunti e niente di più.
E sicuramente è utile al nostro collaboratore Leo che è in Cina dato che la muraglia elettronica blocca Google, PHIND e tutte le altre AI occidentali.
I cinesi hanno qualcosa di fatto da loro ma è inusabile, non ha api per comunicare come ChatGPT e sono proprio delle robacce, almeno per ora.
E se qualcuno usa male le AI, che faccia pure! Non è nulla rispetto a quello che già fanno con cose come i soldi, la avidità, le benzodiazepine, lo zucchero, le bombe, i fucili da guerra, i caccia, le mine antiuomo ecc..
Per capire cosa realmente stiamo rischiando guardate un minuto di questo video
a partire da qui:
https://www.youtube.com/watch?v=tesv0xoNhCo&t=58s
Abbiamo migliorato ancora un po’ la app OLLAMA
https://www.theremino.com/files/Theremino_Ollama_V1.5.zip
Ora i comandi CTRL-C e CTRL-V per copiare funzionano.
E funziona anche CTRL-Z e CTRL-Y che son UNDO e REDO
Potrebbe capitare che Ollama si aggiorni e poi non funzioni più, mettendo un errore che riguarda alcune DLL del C.
Per aggiustarlo scaricate questo file e installate il “Runtime del C”
https://www.theremino.com/files/VC_redist.x64.exe.zip
Bisogna estrarlo dallo ZIP e eseguirlo, ci vogliono poche decine di secondi.
Se preferite potete anche cercare “VC_redist.x64.exe” su Google e scaricarlo dai siti di Microsoft.
Piccoli miglioramenti…
https://www.theremino.com/files/Theremino_Ollama_V1.7.zip
Ciao Livio,
come sempre grazie per il tuo grande lavoro.
Ho fatto qualche piccolo esperimento con Ollama, in particolare il modello Gemma 2:9b.
Dalla sintesi di un breve dialogo, che allego qui di seguito, penso si possa intuire come questi sistemi siano già orientati all’interazione con il mondo dei sensori/attuatori. Se non corro troppo in avanti si potrebbe quindi utilizzare un LLM per governare sensori/attuatori addirittura passando solo per dialoghi vocali (penso a Theremino Voice) E’ corretto?
LLM:
Hai altre domande?
HUMAN
Se un attuatore idraulico è mosso da un comando inviato tramite stringa del tipo “SEND nnn” dove nnn è un numero compreso tra 0 e 999, per spostare l’attuatore a metà corsa quale stringa dovrei inviare come comando?
LLM:
Per spostare l’attuatore a metà corsa, dovresti inviare la stringa **SEND 500**.
Ecco perché:
* La stringa “SEND” indica che si sta inviando un comando all’attuatore.
* I tre numeri (“nnn”) rappresentano la posizione dell’attuatore, con 0 come posizione iniziale e 999 come posizione massima.
* A metà corsa, il valore dovrebbe essere il 50% della corsa totale (999), quindi 999 / 2 = 500.
HUMAN
Giusto, infatti il valore di “nnn” stabilisce una proporzione lineare tra spostamento e valore stesso.
Adesso ti chiedo, se ti arriva il comando “SEND 250” come/dove si sposterebbe l’attuatore?
LLM:
Se ti arriva il comando “SEND 250”, l’attuatore si sposterà a un quarto della corsa totale.
* Ricorda che 0 è la posizione iniziale e 999 la posizione massima.
* Il valore 250 rappresenta il 25% (250/999) della corsa totale.
Hai altre domande?
HUMAN
Genera tu il comando per spostare l’attuatore a tre quarti della sua corsa massima, che definiremo come “abbastanza aperto” mentre ad un quarto della sua corsa l’attuatore è “poco aperto”. Limita la tua risposta alla generazione del comando di “abbastanza aperto”.
LLM:
SEND 750
HUMAN
Adesso porta l’attuatore in posizione poco aperta…
LLM:
SEND 250
HUMAN
Adesso portalo in una posizione quasi chiusa, soltanto pochissimo aperta…
LLM:
SEND 10
HUMAN
Bene, sei stato addestrato adeguatamente per dare comandi agli attuatori!
LLM:
Mi è piaciuto allenarmi con te! Sembro aver imparato a generare i comandi corretti per l’attuatore idraulico.
Se avessi bisogno di altri esercizi o di aiuto con altre attività, non esitare a chiamarmi! Sono sempre pronto ad imparare e ad essere utile.
——————–
Si ma ci sono un po’ di problemini…
1) Che il giorno dopo ha dimenticato tutto.
2) Che è troppo lento per gran parte delle cose davvero utili.
3) Che per insegnargli anche le cose più semplici devi perdere un mucchio di tempo e per le cose un po’ meno semplici può essere così “testa dura” che fai prima a fartele.
4) ecc…
Tutte cose risolvibili e c’è gente che sta proprio facendo queste cose.
Ma purtroppo le risorse, il tempo e i mezzi che abbiamo attualmente sono insufficienti.
Non ho ancora la minima idea di come fare ad “addestrare” i modelli e da quel che ho letto non è per niente facile. Bisognerebbe imparare molte cose e perdere una infinità di tempo che non abbiamo.
Il modo che hai usato per “addestrare” non è un vero addestramento, stai solo mettendo insieme qualche frase di contesto e ottenendo qualche risposta. Può funzionare solo per cose ultra semplici e con una bassa efficienza. Nel senso che se complichi un po’ le esigenze, poi diventa difficile tenere tutto sotto controllo e fargli realmente fare quel che vuoi e oltretutto diventerebbe anche terribilmente lento a rispondere.
Comunque si, concordo con te, quello che hai fatto vedere è più o meno quello che si deve fare. Ma temo che farlo davvero funzionare per controllare qualcosa, sia terribilmente più difficile di quel che sembra dalle tue prove.
Se hai tempo e voglia potresti esplorare tu e cercare di capire… probabilmente partire da queste pagine potrebbe aiutare:
https://github.com/ollama/ollama/blob/main/docs/api.md
Io per ora non ho capito gran che, anche perché sto finendo alcune applicazioni importanti e di tempo ne ho pochissimo.
Grazie Livio per le delucidazioni, effettivamente questi sistemi sono soprattutto ancora troppo lenti in relazione alle risorse che occupano. Dovuto probabilmente ai tempi di calcolo e alla quantità enorme di dati che devono elaborare, per spaziare da Giulio Cesare ai problemi di fisica.
Mi immagino solo la lentezza con cui potrebbe gestire un attuatore tramite feedback di uno o più sensori….
Grazie per il link, anche se temo di non avere tali e tante conoscenze informatiche.
Purtroppo qui non si tratta solo di conoscenze informatiche ma di conoscenze specialistiche sulle tecniche AI. E anche chi mastica informatica dal 1970 come me, quando si inizia a parlare di embeddings degli LLM ci capisce poco o niente.
Un po’ per volta capiremo, ma mentre c’è gente che non fa altro da decine di anni, noi siamo per forza molto più lenti, dato che ci occupiamo di molte cose diverse, elettronica, sensori, software, chimica, musica ecc…
Piccoli miglioramenti…
https://www.theremino.com/files/Theremino_Ollama_V1.8.zip
Sono solo esperimenti… ci vorrà un po’ per finire il vero Theremino_LLM