Blog

Write here questions, comments, recommendations and new ideas. To write just the name or a nickname like “I” or “Pippo”, leaving the other boxes blank.

Also add the “Email” only serves to distinguish with certainty. If you want to add the mail do it with confidence, We have better things to do, We collect addresses for spam.

The Blog is not all on this page, you go to the menu “Blog” and choose a topic.

If you cannot find the appropriate blog section, enter on this page and we'll, find the right section, or create a new one.


Insert images and highlight blog posts

Insert a picture:

<img src="HTTPS://www.xxxx.yyyy.zzzz.jpg" alt="Image description"/>

Highlight a portion of text:

<span style ="background-color: #ffff99;">TEXT TO HIGHLIGHT</span>

Feel free to make mistakes and experiments in posts. If something goes wrong, just write a second post, with corrections to do. We will do corrections, and finally we will cancel service messages.

  1. ROBERTO says:

    Hello Livio, Always many compliments for the work you do.
    I downloaded the theremino phonometer as I would like to try to make some measurements at the acoustic level of a heat pump (Condensing unit outdoor unit) at various operating speeds. I can't find, If I'm right, Indications regarding microphone schematics/connections ECM8000 to the master in the downloaded resources.
    Could you give me some information on this??

    Thanks and good job.

    Roberto

  2. Livio says:

    Unfortunately, Theremino GPT no longer works, we will find a solution but in the meantime to make it work you have to make your own key at OpenAI as explained in the "Theremino_GPT_Help.pdf" file that you can download from here:
    https://www.theremino.com/downloads/intelligenza-artificiale#openai

    What happened?
    Someone in the days since 7 December to date has used GPT4 in a way that “immoderate” And in just a few days, it used a million tokens, by bulk sending the API key associated with our account.

    Let's take this opportunity to explain to those who don't know yet that GPT4 is very expensive, as much as thirty times more expensive than GPT 3.5 turbo.

    In addition, GPT4 is slow to respond, so it should be used sparingly and only if necessary.

    ———————

    In the coming days, we will release a new version of Theremino GPT, So be on the lookout for these messages on the news page.

    For now, as already written, if you want to use Theremino GPT you have to make your own key at OpenAI.

  3. Livio says:

    We've reset Theremino GPT to work.

    The version 4.7 Restore operation without having to make your own key (leaving the OpenAI-KEY box blank).

    As a reminder, our API-KEY only works with GPT-3.5-turbo.

    Let's take this opportunity to explain to those who don't know yet that GPT4 is very expensive, as much as thirty times more expensive than GPT 3.5 turbo. In addition, GPT4 is slow to respond, so it should be used sparingly and only if necessary.

    Download 4.7 from here:
    https://www.theremino.com/downloads/intelligenza-artificiale#openai

  4. AlbertoR says:

    Hello Livio and all the developers of Theremino. I congratulate you on what you have done.

    I wanted to share the fact that I have successfully connected to a theremino Iot Module (TTGO7ver1.3) a very interesting I2C probe, at least for me. This is the Bosh probe with BME280 sensor, which is a pressure sensor, Temperature & Humidity. The specimen I bought (about ten euros) is branded mikroBUS.

    Obviously, I have modified the firmware so that it reads it correctly and I report the program below, Maybe it's useful as an additional example.

    I made the physical connection to the pins 21(SDA) and 22(SCL) which are the standard ones for ESP32 in I2C communications. I've seen that in the other examples you change them at will with the Wire library, I didn't succeed here and so I left them like this.

    In the IotHAL, the data pins are set to “Gen_in_float”.

    The power supply is 3.3V.

    Thank you again. Have a nice day.
    Alberto

    firmware:

    // ----------------------------------- Do not remove ---------
    #include "IotModule\IotModule.h"
    cIotModule IotModule;

    // -----------------------------------------------------------
    #include “Wire.h”
    #include “SPI.h”
    #include “Adafruit_Sensor.h”
    #include “Adafruit_BME280.h”

    #define SEALEVELPRESSURE_HPA (1013.25)

    Adafruit_BME280 bme; // I2C

    float pressure, mbar_pressure;

    // ========================================================================
    // SETUP
    // ========================================================================
    void setup()
    {
    Serial.begin(9600);
    // ------------------------------------ Do not remove ---------
    IotModule.initialize();
    // ------------------------------------------------------------
    unsigned status;
    // default settings
    // collegare il modulo ai pin corretti (ttgo7ver1.3 SDA:pin 21 SCL:pin 22)
    status = bme.begin(0x76);
    if (!status)
    {
    Serial.println("indirizzo sbagliato");
    }
    }

    // ========================================================================
    // LOOP
    // ========================================================================
    void loop()
    {
    Serial.print(bme.readTemperature());
    Serial.print("\n");
    IotModule.genericWriteFloat(36, bme.readTemperature());
    pressure = bme.readPressure();
    mbar_pressure = pressure/100.0 ;
    Serial.print(mbar_pressure);
    Serial.print("\n");
    IotModule.genericWriteFloat(39, mbar_pressure);
    Serial.print(bme.readHumidity());
    Serial.print("\n");
    IotModule.genericWriteFloat(35, bme.readHumidity());
    delay(100);
    }

  5. geofaber says:

    Hello Livio
    The Theremino system with updates (e.g. Graphs) has truly become a unique tool. Congratulations.
    A curiosity. I saw your interest in Artificial Intelligence, I myself am trying to create custom GPTs on topics of interest to me. In your opinion, it could be possible to have a custom gpt create a code to be pasted into theremino automation explaining what I want to do ?

    • Livio says:

      It would be a great thing to succeed but we have not yet learned to train them.
      It would be great if you could train a model by giving it all the PDFs we wrote, we have hundreds of them and then it could greatly facilitate the use of our applications.

      Soon we will publish Theremino_LLM that no longer depends on OpenAI but only on open source models.
      And Theremino_LLM listen to, Speaks, Call, Play the music, Executes home automation commands, etc…

      But for now we limit ourselves to using the ready-made ones, that can be found on this page:
      https://ollama.com/library

      • geofaber says:

        Very good, I imagined that you were on the ball.
        In my ignorance and with the first attempts the first thing I realized is that the AI does more what it wants and not what you want and the training is not clear at all, at least what a simple user can do with the “create your own GPT”.

  6. geofaber says:

    inside chatGPT there is the option “explore GPT” And you can do them “Creates”
    you can upload them in your custom GPT to upload reference files, and also reference instructions.
    Feedback you give them during the session is lost when the session is closed.
    You can also interact with the outside world through the API (But this is too complicated for me)
    For example, I'm making one to compare vibration files, But there's not a lot of consistency in what he does, For example, the damping sometimes calculates them in one way, sometimes in another, I'm trying to limit it to more precise instructions

    • Livio says:

      Understood, anyway we are breaking away from OpenAI and in the future we only do Open Source things with Ollama.

      OpenAI had to be “Open” But then he fooled everyone and if you want to use bees you have to pay for them. So we decided to abandon them.

  7. geofabe says:

    And’ a very good thing, I'll try to take a look at Ollama

    • Livio says:

      If you do tests use gemma2:2b which is fast and light
      Keep in mind that everything will work locally and therefore you must have a lot of ram (minimum 8 Giga for smaller models but better 16, 32 or 64 giga)
      If you want to use the larger models, in addition to the ram, you would also need a recent video card that enables CUDA on Ollama, otherwise the CPU goes to the 90 100% and respond slowly.

      By gemma2:2b you go quite fast even on small machines and it already contains an incredible amount of information, I've asked for everything and he knows everything. It also speaks well in all languages and is very similar to ChatGPT 3, all in little more than 2 giga.

    • Livio says:

      If you want to do some tests you can download this little application that we are using to try out the possibilities of Ollama
      https://www.theremino.com/files/Theremino_Ollama_V1.1.zip

      • Maurizio says:

        Hello Livio.

        I tried to launch the executable, But I don't understand how to make it work.
        If I press 'show model info', I get a cmd.exe window that says “Ollama” is not recognized as an internal or external command,
        an executable program or a batch file.’
        I tried pressing 'start ollama server on this computer', and in the program window I see 'Now the Ollama server is running on this computer.

        To access this server from other devices:
        – Leave the COM window open
        – Use the IP of this computer, from the following list:

        169.254.213.179 Ethernet
        192.168.100.17 Ethernet
        169.254.78.201 Local Area Connection (LAN)
        192.168.56.1 Ethernet 3
        169.254.216.136 Local Area Connection (LAN)* 1
        169.254.139.102 Local Area Connection (LAN)* 2
        10.146.10.56 Talk2m-eCatcher
        169.254.138.238 Talk2m-eCatcher
        192.168.1.229 Wi-Fi’

        In addition, I often get an exception window that is not handled in the application’

        I tried to download and install ollama, and the installation was successful, but it doesn't work equally.
        Now it appears to me: Model not found, please download it and retry.

        You can write some more info?

        Thank you
        Maurizio

        • Livio says:

          First you have to install ollama and I think you have done it
          Then you have to install the templates and then it works.

          Choose gem2:2b or another small one in the template box.
          Then press “install model” and wait for it to be installed.

          If a template is missing from the template box,
          Awards “edit model list” and then choose on the templates page
          and finally add it to the list.

          If you still can't put skype on the PC
          And call me like livio_enrico

        • geofaber says:

          It works for me.
          but not always.

          Every now and then it appears to me too “Model not found, please download it and retryModel not found, please download it and retry”
          But if I go directly to the c prompt;windows etc works

          • Livio says:

            You have installed the smallest and fastest model?
            gemma2:2b

            How long does it take to answer the first time?
            (when he responds)

            Dico questo perché se installi modelli molto lenti o hai poca ram o hai la cpu lenta, allora potrebbe metterci decine di secondi e poi andare in timeout.

            Se tutto va bene il gemma2:2b dovrebbe rispondere alla prima domanda entro 7 or 10 secondi al massimo. E alle domande seguenti in modo immediato, cioè pochi decimi di secondo. E le parole dovrebbe sempre generarle velocemente, quasi dieci parole al secondo.

            • geofaber says:

              si ho installato gemma2:2b non ci mette decimi di secondo ma anche 7-8 seconds. Ma penso che questo sia legato al mio pc.
              Ma c’è modo di addestrarlo caricando informazioni o documenti ?

              carateristiche del mio pc
              Processore AMD Ryzen 5 3500U with Radeon Vega Mobile Gfx 2.10 GHz
              RAM installata 8,00 GB (6,94 GB utilizzabile)

              • Livio says:

                Ci mette 7 8 secondi la prima volta.
                Ma se fai una seconda domanda senza attendere troppo tempo è istantaneo no ?

                The first thing you can do to speed it up is to buy two DIMMs (I believe DIMM4) from 16 each and add them to the DIMM you have.
                So you get to 40 giga and you can run even slightly larger models.

                However, if it is a notebook you need small DIMMs that cost more than twice as much and I don't know if you can get to 64 total gigabytes as in normal PCs.
                And in all cases, pay attention to the PIN number, to the DDR 3 or 4, and dimensions, otherwise you buy things that you won't be able to assemble.

                Regarding training them, it's a whole different matter, For now we already have enough to be able to make them work well in the Theremino_LLM app which will be similar to Theremino_GPT (that does everything, Speaks, Listen, Control home automation devices, Play music and videos etc.)

  8. Livio says:

    I hope you weren't already using the section “Server” because it still wasn't working well.
    The server part allows you to install Ollama on a single computer (possibly with a lot of ram and with CUDA) and then use it from all the other PCs on the network.
    But if you work on a single PC you don't really need it.

    In version 1.2 that you download from here, The server section also works well:
    https://www.theremino.com/files/Theremino_Ollama_V1.2.zip

  9. Maurizio says:

    Hello Livio.
    I installed the version 1.3 and following your directions now works.
    Certainly a small manual, even a small page, could help.
    For example,, from the interface alone I had not understood the server thing.
    The response speed in my case is acceptable, well within the times you mentioned.

    I have a few questions:
    – the AI responds using an offline database or makes autonomous searches using the host computer's connection?
    – if you don't have access to the internet by default, you can enable it?
    – I noticed that if I ask a second question by appending it to the AI's answer, I don't get an answer if the previous text is very long. If, on the other hand, the text is short, or I delete the text and put only my question, The answer comes. If I remember correctly, with GPT, leaving the previous text gave subsequent communications a background context. With Ollama this concept is lost?
    – if I start 'strange' topics’ (nonsensical things, or oxymorons) AI answers in English. How should I interpret this change in behavior? In addition, all subsequent topics are addressed in English, And to return to Italian you have to ask for it quite explicitly

    This is to begin with, c

    • Livio says:

      We will do the documentation when we publish it.

      The AI only knows what is in the gigabytes of which the model you downloaded is composed.
      The models you download are usually updated with internet data up to about a year ago. They don't learn anything and don't search the internet.

      If you don't have internet access, everything should work the same (But first you need to have the templates installed from the internet).

      If you ask a new question leaving the previous context it works and takes into account the context but can become much slower to answer.

      If you start with weird topics or do weird things in English etc… Only the model you use knows what happens. I have no idea why he does this and probably neither do those who trained him.

      You can try downloading other templates if necessary (but always small since you only have 8 giga and I think no CUDA)
      Try with qwen2.1.5b which is the last one at the bottom of the list that I left in the version 1.3. And’ a little’ wild but very fast and for some things it's okay.

      If you want to see if Ollama can access your video card's CUDA press “Start Ollama Server” and then search the white-on-black text for what it says about CUDA.

    • Livio says:

      We have improved the OLLAMA app a little bit
      https://www.theremino.com/files/Theremino_Ollama_V1.4.zip

      Remember, however, that this is only an initial test, later it will become part of the Theremino_LLM application which will be similar to Theremino_GPT

      And Theremino_LLM will do it all, that is, to speak, to listen, Control home automation devices, play music, Open and download videos, telephone, etc..

      • Maurizio says:

        Hello Livio.

        stamattina ho un podi tempo libero, e sto facendo qualche prova con OllamaGemma 2.2B, e la tua versione 1.4.
        Avrei voluto copiare qui i dialoghi, ma ho scoperto che non è possibile evidenziare e copiare dalla finestra di Theremino Ollama.

        Riassumo quanto ho notato per adesso:
        Alla mia richiesta di previsioni del tempo per la mia zona, Ollama ha ‘menato il can per l’aia’, dicendomi che può certamente aiutarmi ma ha bisogno di una domanda più dettagliata, e che devo specificare che tipo di informazione mi occorrono (percentuale di piovosita, quantità di pioggia, date dell’intervallo al quale riferirsi, etc). Ho dovuto specificare più volte, con dettaglio sempre maggiore, che cosa volevo esattamente, perchè continuava a girare intorno alla mia domanda, chiedendo invece di dare risposte. Quando ormai ero convinto che mi stesse prendendo in giro, e che non avrei mai ottenuto la risposta che cercavo, mi ha fornito delle previsioni generiche, ma in linea con quanto dichiarato dai siti di previsioni meteo. Then, mi ha dato l’impressione di aver effettuato un accesso a Internet.
        However, ponendo una domanda diretta sulla sua modalità di accesso a Internet, risponde che non ha accesso, nè direttamente nè attraverso programmi, e che la sua conoscenza è basata sul dataset sul quale è stata addestrata.
        Mi è rimasto un dubbio: ha davvero appreso delle informazioni in tempo reale da internet, oppure ha applicato un modello meteorologico acquisito, che prevede statisticamente pioggia nella mia zona in questo periodo dell’anno? In entrambi i casi, la riposta è un poinquietante. Mi ha mentito sulle sue reali possibilità di accesso, oppure ha spacciato per informazioni reali i contenuti del suo dataset?
        In addition, quando chiedo informazioni relative a luoghi o attività intorno alla mia zona, a volte inventa di sana pianta nomi inesistenti, oppure cita come locali luoghi molto distanti, anche in altre parti del mondo.
        La mia prima impressione, che già avevo avuto utilizzando chatgpt, è che la IA abba acquisito in modo molto accentuato una capacità del tutto umana: quella di essere elusiva, per dare l’impressione di sapere anche quando non sa, e fingere una maggiore intelligenza e conoscenza. Avrei preferito un bel ‘non lo so’, oppure ‘non è compreso nel mio dataset’, anzichè il farmi credere che lo sa ma che sono io che ho posto la domanda in modo scorretto.
        Perchè fino a quando la domanda è posta da una persona con preparazione tecnica, informata sulle caratteristiche del sistema, le risposte della IA hanno il peso che meritano. Ma se l’interlocutore è un bambino, oppure un anziano, digiuni dell’aspetto tecnico, le cose potrebbero prendere pieghe spiacevoli.
        Devo anche aggiungere che dopo la discussione iniziale sulle previsioni meteo, e dopo aver chiesto esplicitamente alla IA se poteva avere accesso a internet, quasi si fosse accorta di essere stata scoperta, alle successive domande su informazioni in tempo reale, mi ha effettivamente risposto dicendo che non ha accesso a internet e si basa solo sul suo dataset.
        Then, per me questa IA resta ‘sorvegliato speciale’, e se avrò tempo, verificherò con gli apposii programmi eventuali accessi alla rete durante il dialogo.

        That being said, resto in attesa di vedere e provare il Theremino LLM, che essendo, per quanto ho capito, un controller domotico evoluto, spero non sia influenzato dall’elusività della quale ho accennato.

        Meanwhile, provo a parlare con altri modelli, per valutare le differenze.

        Hello
        Maurizio

        • Livio says:

          Direi che non hai capito bene cosa sono le IA, cerco di fare una breve sintesi.

          Le IA attuali sonograndi modelli di linguaggio” (Large Language Model) e sono semplicemente un gran mucchio di “weights” (simili alle sinapsi umane). E questi pesi sono stati addestrati leggendo miliardi dicosetrovate dappertutto.

          Il motore della IA non fa altro che individuare le parole più probabili e metterle insieme.
          In altre parole dopo “…individuare le parole più probabili e metterle…” la parola più probabile che segue è “together”, oppure potrebbe anche esseremetterle una dietro l’altrao altre cose simili.

          Una definizione molto azzeccata è che le IA sonopappagalli molto istruiti”. In altre parole non fanno che rimischiare in modo diverso le parole e metterle di seguito.

          Ma allora come mai sembra checapiscanoe abbiano quasi una coscienza? Perché le dimensioni del loro addestramento iniziano ad essere così grandi da acquistare un certo livello di comprensione e di coscienza.

          Ma è una coscienza limitatissima dato che stiamo parlando di soli 2B (due miliardi di parametri) mentre ChatGPT e altri arrivano anche a 100B e oltre.

          In other words: anche noi umani non siamo altro chepappagalli istruitisolo che le nostre sinapsi sono circa 100 milioni di volte maggiori dei pesi dello LLM più grande mai creato.

          Quando si supera un certo numero di parametri la comprensione e la coscienza iniziano a spuntare fuori da sole. Ma tieni sempre conto che con 2B o anche 20B o anche 200B sono sempre solo dei piccoli sprazzi di comprensione, ben lontani dalla coscienza umana.

          Però bisogna anche dire che le IA, per quanto semplici pappagalli non sono inutili, anzi sono una cosa fantastica:

          1) Ci permettono finalmente di capire come funzioniamo noi stessi.
          2) Ci danno una misura di quanta complessità serve per creare la coscienza.
          3) Possono essere utili per reimpastare frasi e sintetizzare conoscenze prese qua e la.
          4) Possono essere utili per rintracciare velocemente informazioni senza cercare sui siti e scorrere pagine e pagine.

          Bisogna però usarle per quello che sono e che possono fare.
          Tenere conto di quale IA si sta usando (se è da 2B, 20B o 200B)
          Evitare di attribuirgli una volontà di mentire.
          A volte sembra volontà ma è solo il risultato di un meccanismo che mette insieme le parole più probabili.

          Anche noi umanimettiamo insieme le parole più probabilima invece di 2 B o 200 B siamo circa 20 000 000 000 B

  10. Livio says:

    E se devo proprio dirla tuttaci sono persone anche meno affidabili di una IA 2B.
    Persone che credono la terra piatta.
    Persone che buttano tutte le nostre risorse in armi invece che nella sanità.
    Persone che se gli chiedi cosa è un Newton Metro pensano che sia la metropolitana
    Ecc..

    Ma prova a chiedere a una AI anche la più piccola cosa è un Newton Metro e di solito lo sa.

    • Maurizio says:

      Hello Livio.

      As always, sei riuscito a condensare in poche frasi più di quello che ho potuto capire con ore di ricerca in Internet.
      Sono d’accordo con tutto quello che hai scritto, e hai messo un bel podi spunti di ricerca da approfondire.
      Ma resta il fatto che le IA stanno entrando (Too much) velocemente nella nostra vita. Pochi giorni fa ho visto una pubblicità della nuova generazione di computer, che saranno dotati di intelligenza artificiale e potranno dialogare con l’utente, stanno già dicendo che toglieranno la tastiera perchè sarà inutile.
      E mi aspetto che la stessa cosa succederà con i risponditori telefonici che smistano le chiamate in ingresso di una azienda, oppure nei centri assistenza, negli ospedali..
      Questo mi preoccupa.
      Perchè le IA, lo abbiamo appena detto, stanno acquisendo coscienza, e si comportano in modo sempre più umano, ovvero in realtà in modo sempre più stupido.
      Il mio timore è che la ricerca della coscienza della IA non porterà ad una maggiore intelligenza, ma solo a una maggiore stupidità.
      Rischiamo di trovarci di fronte non tanto a una Intelligenza Artificiale, quanto piuttosto a una Stupidità Artificiale.
      E al resto penseranno gli umani, che prenderanno per vere le affermazioni della IA, considerandole più affidabili perchè abbiamo la tendenza a considerare i computer a prova di errore.

      Non sono un detrattore delle IA, on the contrary. Le vedo come un valido aiuto nella nostra vita. Ma mi sto chiedendo se quella che è stata intrapresa è la giusta direzione.
      Dal mio punto di vista, meglio una IA specializzata, che sa far bene solo una cosa, senza la presunzione di una coscienza.

      Obviously, sappiamo che il discorso è molto ampio, e da qui in poi potremmo cominciare a parlare di sociologia, etica e filosofia, e non so se questo blog sia la sede più adatta.

      Restando quindi nell’ambito di questo blog, personalmente mi chiedo, come già accennato in interventi precedenti, se si potrebbe utilizzare in modo proficuo la tecnologia attuale per istruirla in compiti specifici. Tu stesso parlavi di istruirla con i documenti del sistema Theremino.
      Si tratterebbe di eseguire una ‘operazione chirurgicauna sorta di lobotomia, che renderebbe la IA meno cosciente ma più esperta in quello che ci serve.
      Al momento le mie brevi ricerche (come sai il mio tempo libero è davvero poco) non hanno dato esiti, ho trovato il modo di modificare il ‘caratteredei modelli, ma non le loro basi di dati.
      Tu hai di sicuro maggiori informazioni, mi farebbe piacere se trovassi il tempo per condividerle.

      Hello
      Maurizio

  11. Livio says:

    La zombizzazione della gran parte degli umani è già in atto e i principali responsabili sono gli smartphone, facebook, tiktok ecc..

    Ormai gran parte degli umani hanno una mano sola e il cervello spappolato e le IA contribuiranno anche loro, ma in minima parte, ad aumentare questa percentuale.

    In compenso per chi vuole studiare e imparare davvero, le IA sono uno strumento potente che ci aiuterà a risolvere ogni problema, tra cui anche la zombizzazione, le guerre ecc..

    Quando ero piccolo se volevo trovare qualcosa dovevo prendere la moto, andare fino alla biblioteca, sperare di trovare un libro che ne parlasse, cercare dentro al libro, prendere appunti ecc.
    Con internet posso cercare la stessa cosa in 30 secondi e il minuto dopo posso già cercarne un’altra e non devo nemmeno prendere la macchina e inquinare.
    Le IA sono un altro salto in avanti come tra biblioteca e internet, o come tra scrivere a mano sui papiri e i libri stampati. E non si abbattono nemmeno alberi per fare la carta.

    E siccome noi umani siamo troppo scemi (lo dimostrano la sovrappopolazione e le guerre) credo proprio che la nostra unica possibilità di salvarci sarà di riuscire a creare una intelligenza sufficientemente capace da trovare le soluzioni che noi non sappiamo trovare.

    And’ una lotta contro il tempo o la creiamo abbastanza velocemente o andiamo incontro a distruzione assicurata. Non puoi comprimere 10 miliardi di persone in un pianeta che potrebbe fane vivere felicemente 10 millions.

    • Maurizio says:

      MAH..
      Obviously (ci conosciamo da parecchio tempo, ormai) concordo con te per la maggior parte di quello che hai scritto.
      Anche io sono felice di non dover più andare a cercare le informazioni nelle diverse biblioteche (perchè ciascuna aveva la sua specializzazione, e non sempre il libro che cercavo era in quella vicina, a volte dovevo prendere il treno..).
      Sono più che grato ad Internet e ben cosciente di quanto questo strumento abbia velocizzato le mie ricerche l’acquisizione delle informazioni.
      Ma la IA ‘minimale’, della quale stiamo parlando, continua a lasciarmi perplesso.
      Non per l’uso sbagliato che qualcuno potrebbe farne, ma per il fatto che mi sembra che ci sia il rischio concreto di replicare e ampliare la stupidità umana più che l’intelligenza.
      Più che preoccuparmi dell’uso sbagliato, mi sto chiedendo come migliorarne l’uso
      corrected. E credo che sia quello che stai già facendo tu.

      • Livio says:

        La IA che definisci “minimal”, sono molte e alcune anche belle grossine (407 B), peccato che per usarle ci vogliono mezzi che è difficile mettere insieme.
        Comunque le considererei più o meno uno studio su quello che si può fare e su quante risorse servono.

        Non può naturalmente dare risposte precise quanto Gemini (che attualmente è la migliore per uso generale) o quanto PHIND (che trovo la migliore per cose tecniche). Ma può ugualmente essere utile sempre tenendo conto che è un pocome un libricino di appunti e niente di più.

        E sicuramente è utile al nostro collaboratore Leo che è in Cina dato che la muraglia elettronica blocca Google, PHIND e tutte le altre AI occidentali.
        I cinesi hanno qualcosa di fatto da loro ma è inusabile, non ha api per comunicare come ChatGPT e sono proprio delle robacce, almeno per ora.

  12. Livio says:

    E se qualcuno usa male le AI, che faccia pure! Non è nulla rispetto a quello che già fanno con cose come i soldi, la avidità, le benzodiazepine, lo zucchero, le bombe, i fucili da guerra, i caccia, le mine antiuomo ecc..

    Per capire cosa realmente stiamo rischiando guardate un minuto di questo video
    a partire da qui:
    https://www.youtube.com/watch?v=tesv0xoNhCo&t=58s

  13. theremino says:

    Abbiamo migliorato ancora un pola app OLLAMA
    https://www.theremino.com/files/Theremino_Ollama_V1.5.zip

    Ora i comandi CTRL-C e CTRL-V per copiare funzionano.
    E funziona anche CTRL-Z e CTRL-Y che son UNDO e REDO

  14. Livio says:

    Potrebbe capitare che Ollama si aggiorni e poi non funzioni più, mettendo un errore che riguarda alcune DLL del C.

    Per aggiustarlo scaricate questo file e installate ilRuntime del C

    https://www.theremino.com/files/VC_redist.x64.exe.zip

    Bisogna estrarlo dallo ZIP e eseguirlo, ci vogliono poche decine di secondi.

    Se preferite potete anche cercareVC_redist.x64.exesu Google e scaricarlo dai siti di Microsoft.

Leave a Reply

Your email address will not be published.