Blog

Escriba aquí preguntas, Comentarios, nuevas ideas y recomendaciones. Escribir sólo el nombre o un apodo como “Me” o “Pippo”, dejando los otros cuadros en blanco.

Añadir también la “Correo electrónico” sólo sirve para distinguir con certeza. Si desea agregar el correo lo hago con confianza, Tenemos mejores cosas que hacer, Recopilamos direcciones para spam.

El Blog no es todo en esta página, vaya al menú “Blog” y elegir un tema.

Si no encuentras la sección adecuada del blog, entrar en esta página y vamos a, encontrar la sección derecha, o crear uno nuevo.


Insertar imágenes y resaltar entradas en el blog

Insertar una imagen:

<img src ="HTTPS://www.xxxx.yyyy.ZZZZ.jpg" Alt ="Descripción de la imagen"/>

Destacar una porción de texto:

<span estilo ="color de fondo: #ffff99;">TEXTO PARA DESTACADO</span>

No dude en hacer experimentos y errores en los mensajes. Si algo sale mal, sólo tienes que escribir un segundo post, con las correcciones que. Haremos las correcciones, y por último tendremos que anular mensajes de servicio.

  1. ROBERTO dice:

    Hola Livio, Siempre muchos elogios por el trabajo que haces.
    Descargué el fonómetro theremino ya que me gustaría intentar hacer algunas mediciones a nivel acústico de una bomba de calor (Unidad condensadora unidad exterior) a varias velocidades de funcionamiento. No puedo encontrar, Si estoy en lo cierto, Indicaciones sobre esquemas/conexiones de micrófonos ECM8000 al maestro en los recursos descargados.
    ¿Podría darme alguna información al respecto??

    Gracias y buen trabajo.

    Roberto

  2. Livio dice:

    Desafortunadamente, Theremino GPT ya no funciona, encontraremos una solución, pero mientras tanto, para que funcione, debe crear su propia clave en OpenAI como se explica en el archivo "Theremino_GPT_Help.pdf" que puede descargar desde aquí:
    https://www.theremino.com/downloads/intelligenza-artificiale#openai

    ¿Qué pasó?
    Alguien en los días transcurridos desde entonces 7 diciembre hasta la fecha ha utilizado GPT4 de una manera que “inmoderado” Y en solo unos días, usó un millón de tokens, mediante el envío masivo de la clave API asociada a nuestra cuenta.

    Aprovechemos esta oportunidad para explicar a los que aún no lo saben que GPT4 es muy caro, hasta treinta veces más caro que GPT 3.5 turbo.

    Además, GPT4 tarda en responder, por lo que debe usarse con moderación y solo si es necesario.

    ———————

    En los próximos días, lanzaremos una nueva versión de Theremino GPT, Así que esté atento a estos mensajes en la página de noticias.

    Por el momento, como se ha escrito, si quieres usar Theremino GPT tienes que crear tu propia clave en OpenAI.

  3. Livio dice:

    Hemos restablecido Theremino GPT para que funcione.

    La versión 4.7 Restaure la operación sin tener que crear su propia clave (dejando en blanco el cuadro OpenAI-KEY).

    Como recordatorio, nuestra API-KEY solo funciona con GPT-3.5-turbo.

    Aprovechemos esta oportunidad para explicar a los que aún no lo saben que GPT4 es muy caro, hasta treinta veces más caro que GPT 3.5 turbo. Además, GPT4 tarda en responder, por lo que debe usarse con moderación y solo si es necesario.

    Descargar 4.7 Desde aquí:
    https://www.theremino.com/downloads/intelligenza-artificiale#openai

  4. AlbertoR dice:

    Buongiorno Livio e a tutti gli sviluppatori di Theremino. Vi faccio veri complimenti per quanto fatto.

    Volevo condividere il fatto che ho collegato con successo ad un theremino Iot Module (il TTGO7ver1.3) una sonda I2C molto interessante, por lo menos para mí. Si tratta della sonda Bosh con sensore BME280, che è un sensore di pressione, temperatura e umidità. L’esemplare che ho comprato io (una decina di euro) è marchiata mikroBUS.

    Ovviamente ho modificato il firmware affinché la legga correttamente e vi riporto qui sotto il programma, magari è utile come esempio ulteriore.

    La connessione fisica l’ho fatta ai pin 21(SDA) y 22(SCL) che sono quelli standard per l’ESP32 nelle comunicazioni I2C. Ho visto che negli altri esempi li cambiate a piacimento con la libreria Wire, io qui non ci sono riuscito e quindi li ho lasciati così.

    Nello IotHAL i Pin dei dati sono da impostare suGen_in_float”.

    L’alimentazione è da 3.3V.

    Vi ringrazio ancora. Que tengas un buen día.
    Alberto

    firmware:

    // ----------------------------------- Do not remove ---------
    #include "IotModule\IotModule.h"
    cIotModule IotModule;

    // -----------------------------------------------------------
    #include “Wire.h”
    #include “SPI.h”
    #include “Adafruit_Sensor.h”
    #include “Adafruit_BME280.h”

    #define SEALEVELPRESSURE_HPA (1013.25)

    Adafruit_BME280 bme; // I2C

    float pressure, mbar_pressure;

    // ========================================================================
    // SETUP
    // ========================================================================
    void setup()
    {
    Serial.begin(9600);
    // ------------------------------------ Do not remove ---------
    IotModule.initialize();
    // ------------------------------------------------------------
    unsigned status;
    // default settings
    // collegare il modulo ai pin corretti (ttgo7ver1.3 SDA:pin 21 SCL:pin 22)
    status = bme.begin(0x76);
    if (!status)
    {
    Serial.println("indirizzo sbagliato");
    }
    }

    // ========================================================================
    // LOOP
    // ========================================================================
    void loop()
    {
    Serial.print(bme.readTemperature());
    Serial.print("\n");
    IotModule.genericWriteFloat(36, bme.readTemperature());
    pressure = bme.readPressure();
    mbar_pressure = pressure/100.0 ;
    Serial.print(mbar_pressure);
    Serial.print("\n");
    IotModule.genericWriteFloat(39, mbar_pressure);
    Serial.print(bme.readHumidity());
    Serial.print("\n");
    IotModule.genericWriteFloat(35, bme.readHumidity());
    delay(100);
    }

  5. Geofaber dice:

    Hola Livio
    Il sistema Theremino con gli aggiornamenti (ad esempio Graphs) è diventato veramente uno strumento unico. Complimenti.
    Una curiosità. Ho visto il vostro interesse per l’Intelligenza Artificiale, io stesso sto provando a crearmi dei GPT personalizzati su temi di mio interesse. Si potrebbe secondo voi far si che un gpt personalizzato crei un codice da incollare in theremino automation spiegandogli cosa volglio fare ?

    • Livio dice:

      Sarebbe una ottima cosa riuscirci ma non abbiamo ancora imparato ad addestrarli.
      Sarebbe bellissimo se si potesse addestrare un modello dandogli tutti i PDF che abbiamo scritto, ne abbiamo centinaia e poi potrebbe facilitare di molto l’uso delle nostre applicazioni.

      Tra poco pubblicheremo Theremino_LLM che non dipende più da OpenAI ma solo da modelli open source.
      E Theremino_LLM ascolta, parla, telefona, suona la musica, esegue i comandi domotici, etc.…

      Però per ora ci limitiamo a usare quelli già pronti, che si trovano in questa pagina:
      https://ollama.com/library

      • Geofaber dice:

        Muy bien, immaginavo che eravate sul pezzo.
        Nella mia ignoranza e con i primi tentativi la prima cosa che ho capito è che l’AI fa piu quello che vuole lei e non quello che vuoi tu e l’addestramento non è affatto chiaro, per lo meno quello che un semplice utente come può fare con ilcrea il tuo GPT”.

  6. Geofaber dice:

    dentro a chatGPT c’è l’opzioneesplora GPTe li puoi farecrea
    li puoi nel tuo GPT personalizzato caricare file di riferimento, e anche istruzioni di riferimento.
    I feedback che invece gli dai durante la sessione vengono persi chiusa la sessione.
    Si può anche tramite le API interagire con l’esterno (ma questo per me è troppo complicato)
    Io ad esempio ne sto facendo uno per confrontare dei file di vibrazione, ma non c’è molta coerenza in quello che fa, gli smorzamenti ad esempio talolta li calcola in un modo talvola in un altro, sto cercando di limitarlo ad istruzioni piu precise

    • Livio dice:

      Capito, comunque noi ci stiamo staccando da OpenAI e in futuro facciamo solo cose Open Source con Ollama.

      OpenAI doveva essere “Abierto” ma poi ha fregato tutti e se vuoi usare le api le devi pagare. Quindi abbiamo deciso di abbandonarli.

  7. Geofabe dice:

    Y’ un ottima cosa, proverò a dare un occhio a Ollama

    • Livio dice:

      Se fai prove usa gemma2:2b che è veloce e leggero
      Tieni conto che tutto ti funzionerà in locale e quindi devi avere molta ram (mínimo 8 giga per i modelli più piccoli ma meglio 16, 32 o 64 giga)
      Se vuoi usare i modelli più grandi oltre alla ram ci vorrebbe anche una scheda video recente che abilta CUDA su Ollama, altrimenti la CPU va al 90 100% e rispondono lentamente.

      Con gemma2:2b vai abbastanza veloce anche su macchine piccole e contiene già una quantità incredibile di informazioni, ho chiesto di tutto e sa tutto. Inoltre parla bene in tutte le lingue ed è molto simile a ChatGpt 3, il tutto in poco più di 2 giga.

    • Livio dice:

      Se vuoi fare qualche prova puoi scaricare questa piccola applicazione che stiamo usando per provare le possibilità di Ollama
      https://www.theremino.com/files/Theremino_Ollama_V1.1.zip

      • Maurizio dice:

        Hola Livio.

        Ho provato a lanciare l’eseguibile, ma non capisco come farlo funzionare.
        Se premo ‘show model info’, mi appare una finestra di cmd.exe che diceollamanon è riconosciuto come comando interno o esterno,
        un programma eseguibile o un file batch.
        Ho provato a premere ‘start ollama server on this computer’, e nella finestra del programma mi appare ‘Now the Ollama server is running on this computer.

        To access this server from other devices:
        Leave the COM window open
        Use the IP of this computer, from the following list:

        169.254.213.179 Ethernet
        192.168.100.17 Ethernet
        169.254.78.201 Connessione alla rete locale (LAN)
        192.168.56.1 Ethernet 3
        169.254.216.136 Connessione alla rete locale (LAN)* 1
        169.254.139.102 Connessione alla rete locale (LAN)* 2
        10.146.10.56 Talk2m-eCatcher
        169.254.138.238 Talk2m-eCatcher
        192.168.1.229 Wi-Fi’

        Además, spesso mi appare una finestra di ‘eccezione non gestita nell’applicazione

        Ho provato a scaricare e installare ollama, e l’installazione è andata a buon fine, ma non funziona ugualmente.
        Ora mi appare: Model not found, please download it and retry.

        Puoi scrivere qualche info in più?

        Gracias
        Maurizio

        • Livio dice:

          Prima devi installare ollama e credo che lo hai fatto
          Poi devi installare i modelli e poi funziona.

          Scegli gemma2:2b o un’altro piccolo nella casella dei modelli.
          Poi premiinstall modele aspetti che sia installato.

          Se un modello non c’è nella casella dei modelli,
          Premios “edit model liste poi scegli nella pagina dei modelli
          e infine lo aggiungi alla lista.

          Se ancora così non riesci metti skype sul PC
          e chiamami come livio_enrico

        • Geofaber dice:

          A me funziona.
          ma non sempre.

          ogni tanto compare anche a meModel not found, please download it and retryModel not found, please download it and retry
          Però se vado direttamente sul prompt di c;windows etc funziona

          • Livio dice:

            Hai installato il modello più piccolo e veloce?
            gemma2:2b

            Quanto ci mette a rispondere la prima volta?
            (quando risponde)

            Dico questo perché se installi modelli molto lenti o hai poca ram o hai la cpu lenta, allora potrebbe metterci decine di secondi e poi andare in timeout.

            Se tutto va bene il gemma2:2b dovrebbe rispondere alla prima domanda entro 7 o 10 secondi al massimo. E alle domande seguenti in modo immediato, cioè pochi decimi di secondo. E le parole dovrebbe sempre generarle velocemente, quasi dieci parole al secondo.

            • Geofaber dice:

              si ho installato gemma2:2b non ci mette decimi di secondo ma anche 7-8 segundos. Ma penso che questo sia legato al mio pc.
              Ma c’è modo di addestrarlo caricando informazioni o documenti ?

              carateristiche del mio pc
              Processore AMD Ryzen 5 3500U with Radeon Vega Mobile Gfx 2.10 GHz
              RAM installata 8,00 GB (6,94 GB utilizzabile)

              • Livio dice:

                Ci mette 7 8 secondi la prima volta.
                Ma se fai una seconda domanda senza attendere troppo tempo è istantaneo no ?

                La prima cosa che puoi fare per velocizzarlo è acquistare due DIMM (credo DIMM4) De 16 giga l’una e aggiungerle alla DIMM che hai.
                Così arrivi a 40 giga e puoi fare girare modelli anche leggermente più grandi.

                Se però è un notebook ci vogliono DIMM piccole che costano più del doppio e non so se puoi arrivare a 64 giga totali come nei normali PC.
                E in tutti i casi fai attenzione al numero di PIN, al DDR 3 o 4, e alle dimensioni, altrimenti compri cose che non riuscirai a montare.

                Riguardo ad addestrarli è tutto un altro discorso, noi per ora ne abbiamo già abbastanza per riuscire a farli funzionare bene nella app Theremino_LLM che sarà simile a Theremino_GPT (che fa di tutto, parla, ascolta, controlla i dispositivi domotici, suona musica e video ecc..)

  8. Livio dice:

    Spero che non stessi già usando la sezioneServerperché non funzionava ancora bene.
    La parte server permette di installa Ollama su un solo computer (possibilmente con molta ram e con CUDA) e poi utilizzarlo da tutti gli altri PC della rete.
    Ma se lavori su un PC solo non serve proprio.

    En la versión 1.2 que descargar desde aquí, anche la sezione server funziona bene:
    https://www.theremino.com/files/Theremino_Ollama_V1.2.zip

  9. Maurizio dice:

    Hola Livio.
    Ho installato l versione 1.3 e seguendo le tue indicazioni ora funziona.
    Di certo un piccolo manuale, anche una paginetta, potrebbe aiutare.
    Por ejemplo,, dala sola interfaccia non avevo capito la faccenda del server.
    La velocità di risposta nel mio caso è accettabile, ben entro i tempi che tu hai citato.

    Ho qualche domanda:
    la AI risponde utlizzando una base di dati offline oppure fa ricerche autonome utilizzando la connessione del computer host?
    se non ha accesso ad internet di default, è possibile abilitarlo?
    ho notato che se pongo una seconda domanda accodandola alla riposta dell’AI, non ottengo risposta se il testo precedente è molto lungo. Se invece il testo è breve, oppure cancello il testo e metto solo la mia domanda, la risposta arriva. Se ben ricordo, con GPT lasciare il testo precedente conferiva ale comunicazioni successive un contesto di background. Con Ollama questo concetto viene perso?
    se inizio argomenti ‘strani’ (cose senza senso, opure ossimori) la AI risponde in inglese. Come devo interpretare questo cambiamento di comportamento? Además, tutte i successivi argomenti vengono affrontati in inglese, e per tornare in italiano bisogna chiederlo abbastanza esplicitamente

    Questo per cominciare, C

    • Livio dice:

      La documentazione la faremo quando lo pubblicheremo.

      La AI sa solo quello che c’è nei giga di cui è composto il modello che hai scaricato.
      I modelli che si scaricano sono in genere aggiornati con dati di internet fino a circa un anno fa. Non imparano nulla e non fanno ricerche in internet.

      Se non hai accesso a internet dovrebbe funzionare tutto lo stesso (ma prima devi avere installato i modelli da internet).

      Se poni una nuova domanda lasciando il contesto precedente funziona e tiene conto del contesto ma può diventare molto più lento a rispondere.

      Se inizi con argomenti strani o fa cose strane in inglese ecccosa succede lo sa solo il modello che usi. Io non ho la minima idea del perché fa così e probabilmente nemmeno chi lo ha addestrato.

      Eventualmente puoi provare a scaricare altri modelli (ma sempre piccoli dato che hai solo 8 giga e credo niente CUDA)
      Prova con il qwen2.1.5b che è l’ultimo in basso nella lista che ho lasciato io nella versione 1.3. Y’ Un poco’ selvatico ma molto veloce e per certe cose va bene.

      Se vuoi vedere se Ollama riesce ad accedere a CUDA della tua scheda video premiStart Ollama Servere poi cerca nel testo bianco su nero cosa dice su CUDA.

    • Livio dice:

      Abbiamo migliorato un pochino la app OLLAMA
      https://www.theremino.com/files/Theremino_Ollama_V1.4.zip

      Ricordate però che questa è solo una prova iniziale, in seguito diventerà parte della applicazione Theremino_LLM che sarà simile a Theremino_GPT

      E Theremino_LLM farà tutto, cioè parlare, escuchar, controllare i dispositivi domotici, suonare musica, aprire e scaricare i video, telefonare, etc..

      • Maurizio dice:

        Hola Livio.

        stamattina ho un podi tempo libero, e sto facendo qualche prova con OllamaGemma 2.2B, e la tua versione 1.4.
        Avrei voluto copiare qui i dialoghi, ma ho scoperto che non è possibile evidenziare e copiare dalla finestra di Theremino Ollama.

        Riassumo quanto ho notato per adesso:
        Alla mia richiesta di previsioni del tempo per la mia zona, Ollama ha ‘menato il can per l’aia’, dicendomi che può certamente aiutarmi ma ha bisogno di una domanda più dettagliata, e che devo specificare che tipo di informazione mi occorrono (percentuale di piovosita, quantità di pioggia, date dell’intervallo al quale riferirsi, etc.). Ho dovuto specificare più volte, con dettaglio sempre maggiore, che cosa volevo esattamente, perchè continuava a girare intorno alla mia domanda, chiedendo invece di dare risposte. Quando ormai ero convinto che mi stesse prendendo in giro, e che non avrei mai ottenuto la risposta che cercavo, mi ha fornito delle previsioni generiche, ma in linea con quanto dichiarato dai siti di previsioni meteo. Entonces, mi ha dato l’impressione di aver effettuato un accesso a Internet.
        Sin embargo, ponendo una domanda diretta sulla sua modalità di accesso a Internet, risponde che non ha accesso, nè direttamente nè attraverso programmi, e che la sua conoscenza è basata sul dataset sul quale è stata addestrata.
        Mi è rimasto un dubbio: ha davvero appreso delle informazioni in tempo reale da internet, oppure ha applicato un modello meteorologico acquisito, che prevede statisticamente pioggia nella mia zona in questo periodo dell’anno? In entrambi i casi, la riposta è un poinquietante. Mi ha mentito sulle sue reali possibilità di accesso, oppure ha spacciato per informazioni reali i contenuti del suo dataset?
        Además, quando chiedo informazioni relative a luoghi o attività intorno alla mia zona, a volte inventa di sana pianta nomi inesistenti, oppure cita come locali luoghi molto distanti, anche in altre parti del mondo.
        La mia prima impressione, che già avevo avuto utilizzando chatgpt, è che la IA abba acquisito in modo molto accentuato una capacità del tutto umana: quella di essere elusiva, per dare l’impressione di sapere anche quando non sa, e fingere una maggiore intelligenza e conoscenza. Avrei preferito un bel ‘non lo so’, oppure ‘non è compreso nel mio dataset’, anzichè il farmi credere che lo sa ma che sono io che ho posto la domanda in modo scorretto.
        Perchè fino a quando la domanda è posta da una persona con preparazione tecnica, informata sulle caratteristiche del sistema, le risposte della IA hanno il peso che meritano. Ma se l’interlocutore è un bambino, oppure un anziano, digiuni dell’aspetto tecnico, le cose potrebbero prendere pieghe spiacevoli.
        Devo anche aggiungere che dopo la discussione iniziale sulle previsioni meteo, e dopo aver chiesto esplicitamente alla IA se poteva avere accesso a internet, quasi si fosse accorta di essere stata scoperta, alle successive domande su informazioni in tempo reale, mi ha effettivamente risposto dicendo che non ha accesso a internet e si basa solo sul suo dataset.
        Entonces, per me questa IA resta ‘sorvegliato speciale’, e se avrò tempo, verificherò con gli apposii programmi eventuali accessi alla rete durante il dialogo.

        Dicho esto, resto in attesa di vedere e provare il Theremino LLM, che essendo, per quanto ho capito, un controller domotico evoluto, spero non sia influenzato dall’elusività della quale ho accennato.

        Mientras tanto, provo a parlare con altri modelli, per valutare le differenze.

        Hola
        Maurizio

        • Livio dice:

          Direi che non hai capito bene cosa sono le IA, cerco di fare una breve sintesi.

          Le IA attuali sonograndi modelli di linguaggio” (Large Language Model) e sono semplicemente un gran mucchio di “pesos” (simili alle sinapsi umane). E questi pesi sono stati addestrati leggendo miliardi dicosetrovate dappertutto.

          Il motore della IA non fa altro che individuare le parole più probabili e metterle insieme.
          In altre parole dopo “…individuare le parole più probabili e metterle…” la parola più probabile che segue è “juntos”, oppure potrebbe anche esseremetterle una dietro l’altrao altre cose simili.

          Una definizione molto azzeccata è che le IA sonopappagalli molto istruiti”. In altre parole non fanno che rimischiare in modo diverso le parole e metterle di seguito.

          Ma allora come mai sembra checapiscanoe abbiano quasi una coscienza? Perché le dimensioni del loro addestramento iniziano ad essere così grandi da acquistare un certo livello di comprensione e di coscienza.

          Ma è una coscienza limitatissima dato che stiamo parlando di soli 2B (due miliardi di parametri) mentre ChatGPT e altri arrivano anche a 100B e oltre.

          En otras palabras: anche noi umani non siamo altro chepappagalli istruitisolo che le nostre sinapsi sono circa 100 milioni di volte maggiori dei pesi dello LLM più grande mai creato.

          Quando si supera un certo numero di parametri la comprensione e la coscienza iniziano a spuntare fuori da sole. Ma tieni sempre conto che con 2B o anche 20B o anche 200B sono sempre solo dei piccoli sprazzi di comprensione, ben lontani dalla coscienza umana.

          Però bisogna anche dire che le IA, per quanto semplici pappagalli non sono inutili, anzi sono una cosa fantastica:

          1) Ci permettono finalmente di capire come funzioniamo noi stessi.
          2) Ci danno una misura di quanta complessità serve per creare la coscienza.
          3) Possono essere utili per reimpastare frasi e sintetizzare conoscenze prese qua e la.
          4) Possono essere utili per rintracciare velocemente informazioni senza cercare sui siti e scorrere pagine e pagine.

          Bisogna però usarle per quello che sono e che possono fare.
          Tenere conto di quale IA si sta usando (se è da 2B, 20B o 200B)
          Evitare di attribuirgli una volontà di mentire.
          A volte sembra volontà ma è solo il risultato di un meccanismo che mette insieme le parole più probabili.

          Anche noi umanimettiamo insieme le parole più probabilima invece di 2 B o 200 B siamo circa 20 000 000 000 B

  10. Livio dice:

    E se devo proprio dirla tuttaci sono persone anche meno affidabili di una IA 2B.
    Persone che credono la terra piatta.
    Persone che buttano tutte le nostre risorse in armi invece che nella sanità.
    Persone che se gli chiedi cosa è un Newton Metro pensano che sia la metropolitana
    Ecc..

    Ma prova a chiedere a una AI anche la più piccola cosa è un Newton Metro e di solito lo sa.

    • Maurizio dice:

      Hola Livio.

      Como siempre, sei riuscito a condensare in poche frasi più di quello che ho potuto capire con ore di ricerca in Internet.
      Sono d’accordo con tutto quello che hai scritto, e hai messo un bel podi spunti di ricerca da approfondire.
      Ma resta il fatto che le IA stanno entrando (Demasiado) velocemente nella nostra vita. Pochi giorni fa ho visto una pubblicità della nuova generazione di computer, che saranno dotati di intelligenza artificiale e potranno dialogare con l’utente, stanno già dicendo che toglieranno la tastiera perchè sarà inutile.
      E mi aspetto che la stessa cosa succederà con i risponditori telefonici che smistano le chiamate in ingresso di una azienda, oppure nei centri assistenza, negli ospedali..
      Questo mi preoccupa.
      Perchè le IA, lo abbiamo appena detto, stanno acquisendo coscienza, e si comportano in modo sempre più umano, ovvero in realtà in modo sempre più stupido.
      Il mio timore è che la ricerca della coscienza della IA non porterà ad una maggiore intelligenza, ma solo a una maggiore stupidità.
      Rischiamo di trovarci di fronte non tanto a una Intelligenza Artificiale, quanto piuttosto a una Stupidità Artificiale.
      E al resto penseranno gli umani, che prenderanno per vere le affermazioni della IA, considerandole più affidabili perchè abbiamo la tendenza a considerare i computer a prova di errore.

      Non sono un detrattore delle IA, por el contrario. Le vedo come un valido aiuto nella nostra vita. Ma mi sto chiedendo se quella che è stata intrapresa è la giusta direzione.
      Dal mio punto di vista, meglio una IA specializzata, che sa far bene solo una cosa, senza la presunzione di una coscienza.

      Obviamente, sappiamo che il discorso è molto ampio, e da qui in poi potremmo cominciare a parlare di sociologia, etica e filosofia, e non so se questo blog sia la sede più adatta.

      Restando quindi nell’ambito di questo blog, personalmente mi chiedo, come già accennato in interventi precedenti, se si potrebbe utilizzare in modo proficuo la tecnologia attuale per istruirla in compiti specifici. Tu stesso parlavi di istruirla con i documenti del sistema Theremino.
      Si tratterebbe di eseguire una ‘operazione chirurgicauna sorta di lobotomia, che renderebbe la IA meno cosciente ma più esperta in quello che ci serve.
      Al momento le mie brevi ricerche (come sai il mio tempo libero è davvero poco) non hanno dato esiti, ho trovato il modo di modificare il ‘caratteredei modelli, ma non le loro basi di dati.
      Tu hai di sicuro maggiori informazioni, mi farebbe piacere se trovassi il tempo per condividerle.

      Hola
      Maurizio

  11. Livio dice:

    La zombizzazione della gran parte degli umani è già in atto e i principali responsabili sono gli smartphone, facebook, tiktok ecc..

    Ormai gran parte degli umani hanno una mano sola e il cervello spappolato e le IA contribuiranno anche loro, ma in minima parte, ad aumentare questa percentuale.

    In compenso per chi vuole studiare e imparare davvero, le IA sono uno strumento potente che ci aiuterà a risolvere ogni problema, tra cui anche la zombizzazione, le guerre ecc..

    Quando ero piccolo se volevo trovare qualcosa dovevo prendere la moto, andare fino alla biblioteca, sperare di trovare un libro che ne parlasse, cercare dentro al libro, prendere appunti ecc.
    Con internet posso cercare la stessa cosa in 30 secondi e il minuto dopo posso già cercarne un’altra e non devo nemmeno prendere la macchina e inquinare.
    Le IA sono un altro salto in avanti come tra biblioteca e internet, o come tra scrivere a mano sui papiri e i libri stampati. E non si abbattono nemmeno alberi per fare la carta.

    E siccome noi umani siamo troppo scemi (lo dimostrano la sovrappopolazione e le guerre) credo proprio che la nostra unica possibilità di salvarci sarà di riuscire a creare una intelligenza sufficientemente capace da trovare le soluzioni che noi non sappiamo trovare.

    Y’ una lotta contro il tempo o la creiamo abbastanza velocemente o andiamo incontro a distruzione assicurata. Non puoi comprimere 10 miliardi di persone in un pianeta che potrebbe fane vivere felicemente 10 millones.

    • Maurizio dice:

      MAH..
      Obviamente (ci conosciamo da parecchio tempo, ormai) concordo con te per la maggior parte di quello che hai scritto.
      Anche io sono felice di non dover più andare a cercare le informazioni nelle diverse biblioteche (perchè ciascuna aveva la sua specializzazione, e non sempre il libro che cercavo era in quella vicina, a volte dovevo prendere il treno..).
      Sono più che grato ad Internet e ben cosciente di quanto questo strumento abbia velocizzato le mie ricerche l’acquisizione delle informazioni.
      Ma la IA ‘minimale’, della quale stiamo parlando, continua a lasciarmi perplesso.
      Non per l’uso sbagliato che qualcuno potrebbe farne, ma per il fatto che mi sembra che ci sia il rischio concreto di replicare e ampliare la stupidità umana più che l’intelligenza.
      Più che preoccuparmi dell’uso sbagliato, mi sto chiedendo come migliorarne l’uso
      corregido. E credo che sia quello che stai già facendo tu.

      • Livio dice:

        La IA che definisci “mínimo”, sono molte e alcune anche belle grossine (407 B), peccato che per usarle ci vogliono mezzi che è difficile mettere insieme.
        Comunque le considererei più o meno uno studio su quello che si può fare e su quante risorse servono.

        Non può naturalmente dare risposte precise quanto Gemini (che attualmente è la migliore per uso generale) o quanto PHIND (che trovo la migliore per cose tecniche). Ma può ugualmente essere utile sempre tenendo conto che è un pocome un libricino di appunti e niente di più.

        E sicuramente è utile al nostro collaboratore Leo che è in Cina dato che la muraglia elettronica blocca Google, PHIND e tutte le altre AI occidentali.
        I cinesi hanno qualcosa di fatto da loro ma è inusabile, non ha api per comunicare come ChatGPT e sono proprio delle robacce, almeno per ora.

  12. Livio dice:

    E se qualcuno usa male le AI, che faccia pure! Non è nulla rispetto a quello che già fanno con cose come i soldi, la avidità, le benzodiazepine, lo zucchero, le bombe, i fucili da guerra, i caccia, le mine antiuomo ecc..

    Per capire cosa realmente stiamo rischiando guardate un minuto di questo video
    a partire da qui:
    https://www.youtube.com/watch?v=tesv0xoNhCo&t=58s

  13. theremino dice:

    Abbiamo migliorato ancora un pola app OLLAMA
    https://www.theremino.com/files/Theremino_Ollama_V1.5.zip

    Ora i comandi CTRL-C e CTRL-V per copiare funzionano.
    E funziona anche CTRL-Z e CTRL-Y che son UNDO e REDO

  14. Livio dice:

    Potrebbe capitare che Ollama si aggiorni e poi non funzioni più, mettendo un errore che riguarda alcune DLL del C.

    Per aggiustarlo scaricate questo file e installate ilRuntime del C

    https://www.theremino.com/files/VC_redist.x64.exe.zip

    Bisogna estrarlo dallo ZIP e eseguirlo, ci vogliono poche decine di secondi.

    Se preferite potete anche cercareVC_redist.x64.exesu Google e scaricarlo dai siti di Microsoft.

  15. Marco dice:

    Hola Livio,
    come sempre grazie per il tuo grande lavoro.
    Ho fatto qualche piccolo esperimento con Ollama, in particolare il modello Gemma 2:9b.

    Dalla sintesi di un breve dialogo, che allego qui di seguito, penso si possa intuire come questi sistemi siano già orientati all’interazione con il mondo dei sensori/attuatori. Se non corro troppo in avanti si potrebbe quindi utilizzare un LLM per governare sensori/attuatori addirittura passando solo per dialoghi vocali (penso a Theremino Voice) Y’ corregido?

  16. Marco dice:

    LLM:
    Hai altre domande?

    HUMAN
    Se un attuatore idraulico è mosso da un comando inviato tramite stringa del tipoSEND nnndove nnn è un numero compreso tra 0 y 999, per spostare l’attuatore a metà corsa quale stringa dovrei inviare come comando?

    LLM:
    Per spostare l’attuatore a metà corsa, dovresti inviare la stringa **SEND 500**.
    Es por eso:
    * La stringaSENDindica che si sta inviando un comando all’attuatore.
    * I tre numeri (“nnn”) rappresentano la posizione dell’attuatore, con 0 come posizione iniziale e 999 come posizione massima.
    * A metà corsa, il valore dovrebbe essere il 50% della corsa totale (999), entonces 999 / 2 = 500.

    HUMAN
    derecho, infatti il valore dinnnstabilisce una proporzione lineare tra spostamento e valore stesso.
    Adesso ti chiedo, se ti arriva il comandoSEND 250come/dove si sposterebbe l’attuatore?

    LLM:
    Se ti arriva il comandoSEND 250”, l’attuatore si sposterà a un quarto della corsa totale.
    * Ricorda che 0 è la posizione iniziale e 999 la posizione massima.
    * El valor 250 rappresenta il 25% (250/999) della corsa totale.
    Hai altre domande?

    HUMAN
    Genera tu il comando per spostare l’attuatore a tre quarti della sua corsa massima, che definiremo comeabbastanza apertomentre ad un quarto della sua corsa l’attuatore èpoco aperto”. Limita la tua risposta alla generazione del comando diabbastanza aperto”.

    LLM:
    SEND 750

    HUMAN
    Adesso porta l’attuatore in posizione poco aperta

    LLM:
    SEND 250

    HUMAN
    Adesso portalo in una posizione quasi chiusa, soltanto pochissimo aperta

    LLM:
    SEND 10

    HUMAN
    Bien, sei stato addestrato adeguatamente per dare comandi agli attuatori!

    LLM:
    Mi è piaciuto allenarmi con te! Sembro aver imparato a generare i comandi corretti per l’attuatore idraulico.
    Se avessi bisogno di altri esercizi o di aiuto con altre attività, non esitare a chiamarmi! Sono sempre pronto ad imparare e ad essere utile.
    ——————–

    • Livio dice:

      Si ma ci sono un podi problemini
      1) Che il giorno dopo ha dimenticato tutto.
      2) Che è troppo lento per gran parte delle cose davvero utili.
      3) Che per insegnargli anche le cose più semplici devi perdere un mucchio di tempo e per le cose un pomeno semplici può essere cosìtesta durache fai prima a fartele.
      4) etc.…

      Tutte cose risolvibili e c’è gente che sta proprio facendo queste cose.
      Ma purtroppo le risorse, il tempo e i mezzi che abbiamo attualmente sono insufficienti.
      Non ho ancora la minima idea di come fare ad “tren” i modelli e da quel che ho letto non è per niente facile. Bisognerebbe imparare molte cose e perdere una infinità di tempo che non abbiamo.

      Il modo che hai usato per “tren” non è un vero addestramento, stai solo mettendo insieme qualche frase di contesto e ottenendo qualche risposta. Può funzionare solo per cose ultra semplici e con una bassa efficienza. Nel senso che se complichi un pole esigenze, poi diventa difficile tenere tutto sotto controllo e fargli realmente fare quel che vuoi e oltretutto diventerebbe anche terribilmente lento a rispondere.

      De todos modos, sí, concordo con te, quello che hai fatto vedere è più o meno quello che si deve fare. Ma temo che farlo davvero funzionare per controllare qualcosa, sia terribilmente più difficile di quel che sembra dalle tue prove.

      Se hai tempo e voglia potresti esplorare tu e cercare di capireprobabilmente partire da queste pagine potrebbe aiutare:
      https://github.com/ollama/ollama/blob/main/docs/api.md

      Io per ora non ho capito gran che, anche perché sto finendo alcune applicazioni importanti e di tempo ne ho pochissimo.

  17. Marco R dice:

    Grazie Livio per le delucidazioni, effettivamente questi sistemi sono soprattutto ancora troppo lenti in relazione alle risorse che occupano. Dovuto probabilmente ai tempi di calcolo e alla quantità enorme di dati che devono elaborare, per spaziare da Giulio Cesare ai problemi di fisica.
    Mi immagino solo la lentezza con cui potrebbe gestire un attuatore tramite feedback di uno o più sensori….
    Grazie per il link, anche se temo di non avere tali e tante conoscenze informatiche.

    • Livio dice:

      Purtroppo qui non si tratta solo di conoscenze informatiche ma di conoscenze specialistiche sulle tecniche AI. E anche chi mastica informatica dal 1970 come me, quando si inizia a parlare di embeddings degli LLM ci capisce poco o niente.

      Un poco’ per volta capiremo, ma mentre c’è gente che non fa altro da decine di anni, noi siamo per forza molto più lenti, dato che ci occupiamo di molte cose diverse, elettronica, sensores de, software, chimica, musica ecc

  18. theremino dice:

    Piccoli miglioramenti…
    https://www.theremino.com/files/Theremino_Ollama_V1.8.zip

    Sono solo esperimentici vorrà un poper finire il vero Theremino_LLM

  19. Livio dice:

    Piccoli miglioramenti…
    https://www.theremino.com/files/Theremino_Ollama_V1.9.zip

    Interessanti gli LLMUncensored” !!!

    Provate sempre i modelli 2B, altrimenti quelli più grandi sarebbero troppo lenti sui computer normali, senza Octucore, NPU, Cuda ecc

    Sono solo esperimenti… ci vorrà un po’ per finire il vero Theremino_LLM

Deja una respuesta para Livio Cancelar respuesta

Su dirección de correo electrónico no será publicado.