Blogues

Anote perguntas, comentários, dicas e idéias. Para apenas escrever seu nome ou um apelido como “Eu” ou “foo”, deixando outras caixas vazias.

Também Adicione o “Email” Ele serve apenas para distinguir com certeza. Se você deseja adicionar e-mail, fazê-lo com confiança, temos coisas melhores a fazer, que se reúnem com o propósito de endereços de spam.

O Blog não é tudo sobre esta página, vá para o menu “Blogues” e escolher um tema.

Se você não consegue encontrar uma seção de blog apropriada, escrever sobre esta página e iremos fornecer, encontrar a seção direita, ou criar um novo.


Inserir imagens e destacar as entradas de blog

Inserir uma imagem:

<img src ="HTTPS://www.xxxx.yyyy.zzzz.jpg" alt ="Descrição da imagem"/>

Destaque algum texto:

<span style ="cor de fundo: #FFFF99;">Realçar texto</período>

Sinta-se livre para cometer erros e experiências em pós. Se algo der errado, basta escrever um segundo post, com correções para fazer. Nós nos fará as correções e, finalmente cancelar mensagens de serviço.

  1. ROBERTO diz:

    Olá Livio, Sempre muitos elogios pelo trabalho que você faz.
    Eu baixei o fenômetro theremino como eu gostaria de tentar fazer algumas medições no nível acústico de uma bomba de calor (Unidade condensadora ao ar livre) em várias velocidades de operação. Não consigo encontrar, Se eu estiver certo, Indicações sobre esquemas/conexões de microfone ECM8000 ao mestre nos recursos baixados.
    Você poderia me dar alguma informação sobre isso??

    Obrigado e boa sorte.

    Roberto

  2. Livio diz:

    Infelizmente, Theremino GPT não funciona mais, vamos encontrar uma solução, mas enquanto isso para fazê-lo funcionar você tem que fazer sua própria chave no OpenAI como explicado no arquivo "Theremino_GPT_Help.pdf" que você pode baixar aqui:
    https://www.theremino.com/downloads/intelligenza-artificiale#openai

    O que aconteceu?
    Alguém nos dias seguintes 7 Dezembro até o momento tem usado GPT4 de uma forma que “imoderado” E em apenas alguns dias, usou um milhão de tokens, enviando em massa a chave de API associada à nossa conta.

    Vamos aproveitar para explicar para quem ainda não sabe que a GPT4 é muito cara, até trinta vezes mais caro que o GPT 3.5 turbo.

    Além disso, o GPT4 é lento para responder, por isso deve ser usado com moderação e apenas se necessário.

    ———————

    Nos próximos dias, lançaremos uma nova versão do Theremino GPT, Portanto, fique atento a essas mensagens na página de notícias.

    Por agora, como escrito, se você quiser usar Theremino GPT você tem que fazer sua própria chave no OpenAI.

  3. Livio diz:

    Nós redefinimos Theremino GPT para funcionar.

    A versão 4.7 Restaure a operação sem ter que fazer sua própria chave (deixando a caixa OpenAI-KEY em branco).

    Como lembrete, nossa API-KEY só funciona com GPT-3.5-turbo.

    Vamos aproveitar para explicar para quem ainda não sabe que a GPT4 é muito cara, até trinta vezes mais caro que o GPT 3.5 turbo. Além disso, o GPT4 é lento para responder, por isso deve ser usado com moderação e apenas se necessário.

    versão para download 4.7 a partir daqui:
    https://www.theremino.com/downloads/intelligenza-artificiale#openai

  4. Alberto R diz:

    Olá Livio e todos os desenvolvedores de Theremino. Eu realmente o parabenizo pelo que você fez.

    Eu queria compartilhar o fato de que me conectei com sucesso a um módulo IoT (O TTGO7ver1.3) uma sonda I2C muito interessante, pelo menos para mim. Esta é a sonda Bosh com sensor BME280, que é um sensor de pressão, Temperatura e umidade. O espécime que comprei (cerca de dez euros) é a marca mikroBUS.

    Obviamente modifiquei o firmware para que ele o leia corretamente e relato o programa abaixo, talvez seja útil como mais um exemplo.

    Fiz a conexão física com os pinos 21(SDA) e 22(SCL) quais são os padrões para ESP32 em comunicações I2C. Eu vi que nos outros exemplos você pode alterá-los à vontade com a biblioteca Wire, Eu não tive sucesso aqui e então os deixei assim.

    No IotHAL, os pinos de dados devem ser definidos como “Gen_in_float”.

    A fonte de alimentação é de 3,3 V.

    Obrigado novamente. Tenha um bom dia.
    Alberto

    firmware:

    // ----------------------------------- Do not remove ---------
    #include "IotModule\IotModule.h"
    cIotModule IotModule;

    // -----------------------------------------------------------
    #include “Wire.h”
    #include “SPI.h”
    #include “Adafruit_Sensor.h”
    #include “Adafruit_BME280.h”

    #define SEALEVELPRESSURE_HPA (1013.25)

    Adafruit_BME280 bme; // I2C

    float pressure, mbar_pressure;

    // ========================================================================
    // SETUP
    // ========================================================================
    void setup()
    {
    Serial.begin(9600);
    // ------------------------------------ Do not remove ---------
    IotModule.initialize();
    // ------------------------------------------------------------
    unsigned status;
    // default settings
    // collegare il modulo ai pin corretti (ttgo7ver1.3 SDA:pin 21 SCL:pin 22)
    status = bme.begin(0x76);
    if (!status)
    {
    Serial.println("indirizzo sbagliato");
    }
    }

    // ========================================================================
    // LOOP
    // ========================================================================
    void loop()
    {
    Serial.print(bme.readTemperature());
    Serial.print("\n");
    IotModule.genericWriteFloat(36, bme.readTemperature());
    pressure = bme.readPressure();
    mbar_pressure = pressure/100.0 ;
    Serial.print(mbar_pressure);
    Serial.print("\n");
    IotModule.genericWriteFloat(39, mbar_pressure);
    Serial.print(bme.readHumidity());
    Serial.print("\n");
    IotModule.genericWriteFloat(35, bme.readHumidity());
    delay(100);
    }

  5. geofaber diz:

    Olá Livio
    O sistema Theremino com atualizações (por exemplo, gráficos) tornou-se verdadeiramente uma ferramenta única. Parabéns.
    Uma curiosidade. Vi seu interesse em Inteligência Artificial, Eu mesmo estou tentando criar GPTs personalizados sobre tópicos de meu interesse. Na sua opinião, poderia ser possível ter um gpt personalizado criar um código para ser colado na automação theremino explicando o que eu quero fazer ?

    • Livio diz:

      Seria ótimo ter sucesso, mas ainda não aprendemos a treiná-los.
      Seria ótimo se você pudesse treinar um modelo fornecendo a ele todos os PDFs que escrevemos, temos centenas deles e isso pode facilitar muito o uso de nossos aplicativos.

      Em breve publicaremos Theremino_LLM que não dependem mais da OpenAI, mas apenas de modelos de código aberto.
      E Theremino_LLM ouço, Fala, Chamar, Toque a música, Executa comandos de automação residencial, etc…

      Mas, por enquanto, nos limitamos a usar os prontos, que podem ser encontrados nesta página:
      https://ollama.com/library

      • geofaber diz:

        Muito bom, Eu imaginei que você estava na bola.
        Na minha ignorância e com as primeiras tentativas, a primeira coisa que percebi é que a IA faz mais o que quer e não o que você quer e o treinamento não é nada claro, pelo menos o que um simples usuário pode fazer com o “crie seu próprio GPT”.

  6. geofaber diz:

    dentro do chatGPT existe a opção “explorar GPT” E você pode fazê-los “Cria”
    você pode carregá-los em sua GPT personalizada para fazer upload de arquivos de referência, e também instruções de referência.
    O feedback que você dá a eles durante a sessão é perdido quando a sessão é encerrada.
    Você também pode interagir com o mundo exterior por meio da API (Mas isso é muito complicado para mim)
    Por exemplo, estou fazendo um para comparar arquivos de vibração, Mas não há muita consistência no que ele faz, Por exemplo, o amortecimento às vezes os calcula de uma maneira, às vezes de outra, Estou tentando limitá-lo a instruções mais precisas

    • Livio diz:

      Compreendido, De qualquer forma, estamos rompendo com o OpenAI e, no futuro, só faremos coisas de código aberto com Ollama.

      A OpenAI tinha que ser “abrir” Mas então ele enganou a todos e se você quiser usar abelhas, terá que pagar por elas. Então decidimos abandoná-los.

  7. geofabe diz:

    E’ uma coisa muito boa, Vou tentar dar uma olhada em Ollama

    • Livio diz:

      Se você fizer testes, use gemma2:2b que é rápido e leve
      Lembre-se de que tudo funcionará localmente e, portanto, você deve ter muita memória RAM (mínimo 8 Giga para modelos menores, mas melhores 16, 32 ou 64 giga)
      Se você quiser usar os modelos maiores, além da memória RAM, também precisará de uma placa de vídeo recente que habilite CUDA no Ollama, caso contrário, a CPU vai para o 90 100% e responda lentamente.

      Por gemma2:2b você vai muito rápido, mesmo em máquinas pequenas e já contém uma quantidade incrível de informações, Eu pedi tudo e ele sabe tudo. Ele também fala bem em todos os idiomas e é muito semelhante ao ChatGPT 3, tudo em pouco mais de 2 giga.

    • Livio diz:

      Se você quiser fazer alguns testes, pode baixar este pequeno aplicativo que estamos usando para experimentar as possibilidades do Ollama
      https://www.theremino.com/files/Theremino_Ollama_V1.1.zip

      • Maurizio diz:

        Olá Livio.

        Tentei iniciar o executável, Mas eu não entendo como fazer isso funcionar.
        Se eu pressionar 'mostrar informações do modelo', Eu recebo uma janela cmd.exe que diz “Olhama” não é reconhecido como um comando interno ou externo,
        um programa executável ou um arquivo em lote.’
        Eu tentei pressionar 'iniciar servidor ollama neste computador', e na janela do programa vejo 'Agora o servidor Ollama está sendo executado neste computador.

        Para acessar este servidor de outros dispositivos:
        – Deixe a janela COM aberta
        – Use o IP deste computador, da lista a seguir:

        169.254.213.179 Ethernet
        192.168.100.17 Ethernet
        169.254.78.201 Conexão de área local (LAN)
        192.168.56.1 Ethernet 3
        169.254.216.136 Conexão de área local (LAN)* 1
        169.254.139.102 Conexão de área local (LAN)* 2
        10.146.10.56 Talk2m-eCatcher
        169.254.138.238 Talk2m-eCatcher
        192.168.1.229 Wi-Fi’

        Além disso, Muitas vezes recebo uma janela de exceção que não é tratada no aplicativo’

        Tentei baixar e instalar o ollama, e a instalação foi bem-sucedida, mas não funciona igualmente.
        Agora me parece: Modelo não encontrado, Faça o download e tente novamente.

        Você pode escrever mais algumas informações?

        Obrigado
        Maurizio

        • Livio diz:

          Primeiro você tem que instalar o ollama e acho que você fez isso
          Então você tem que instalar os modelos e então funciona.

          Escolha gem2:2b ou outro pequeno na caixa de modelo.
          Em seguida, pressione “Instalar modelo” e espere que seja instalado.

          Se um modelo estiver faltando na caixa de modelo,
          prêmios “Editar lista de modelos” e, em seguida, escolha na página de modelos
          e, finalmente, adicioná-lo à lista.

          Se você ainda não consegue colocar o skype no PC
          E me chame como livio_enrico

        • geofaber diz:

          Funciona para mim.
          mas nem sempre.

          De vez em quando, parece-me também “Modelo não encontrado, faça o download e tente novamenteModelo não encontrado, Faça o download e tente novamente”
          Mas se eu for diretamente para o prompt c;Windows etc funciona

          • Livio diz:

            Você instalou o modelo menor e mais rápido?
            gemma2:2b

            Quanto tempo leva para responder pela primeira vez?
            (quando ele responde)

            Digo isso porque se você instalar modelos muito lentos ou tiver pouca memória RAM ou uma CPU lenta, então pode levar dezenas de segundos e depois expirar.

            Espero que o bud2:2B deve responder à primeira questão 7 ou 10 segundos no máximo. E para as seguintes perguntas imediatamente, isto é, alguns décimos de segundo. E as palavras devem sempre gerá-los rapidamente, Quase dez palavras por segundo.

            • geofaber diz:

              Sim, eu instalei gemma2:2b não leva décimos de segundo, mas também 7-8 segundos. Mas acho que isso está relacionado ao meu pc.
              Ma c’è modo di addestrarlo caricando informazioni o documenti ?

              carateristiche del mio pc
              Processore AMD Ryzen 5 3500U with Radeon Vega Mobile Gfx 2.10 GHz
              RAM installata 8,00 GB (6,94 GB utilizzabile)

              • Livio diz:

                Ci mette 7 8 secondi la prima volta.
                Ma se fai una seconda domanda senza attendere troppo tempo è istantaneo no ?

                La prima cosa che puoi fare per velocizzarlo è acquistare due DIMM (credo DIMM4) De 16 giga l’una e aggiungerle alla DIMM che hai.
                Così arrivi a 40 giga e puoi fare girare modelli anche leggermente più grandi.

                Se però è un notebook ci vogliono DIMM piccole che costano più del doppio e non so se puoi arrivare a 64 giga totali come nei normali PC.
                E in tutti i casi fai attenzione al numero di PIN, al DDR 3 ou 4, e alle dimensioni, altrimenti compri cose che non riuscirai a montare.

                Em relação a treiná-los, é uma questão totalmente diferente, Por enquanto já temos o suficiente para poder fazê-los funcionar bem no aplicativo Theremino_LLM que será semelhante ao Theremino_GPT (que faz tudo, Fala, Escutar, Controle dispositivos de automação residencial, Reproduza músicas e vídeos, etc.)

  8. Livio diz:

    Espero que você ainda não estivesse usando a seção “Servidor” porque ainda não estava funcionando bem.
    A parte do servidor permite que você instale o Ollama em um único computador (possivelmente com muita memória RAM e com CUDA) e, em seguida, use-o em todos os outros PCs da rede.
    Mas se você trabalha em um único PC, você realmente não precisa dele.

    Na versão 1.2 que você baixar aqui, A seção do servidor também funciona bem:
    https://www.theremino.com/files/Theremino_Ollama_V1.2.zip

  9. Maurizio diz:

    Olá Livio.
    Instalei a versão 1.3 e seguir suas instruções agora funciona.
    Certamente um pequeno manual, até mesmo uma página pequena, poderia ajudar.
    Por exemplo,, só pela interface eu não tinha entendido a coisa do servidor.
    A velocidade de resposta no meu caso é aceitável, bem dentro dos tempos que você mencionou.

    Eu tenho algumas perguntas:
    – a IA responde usando um banco de dados offline ou faz pesquisas autônomas usando a conexão do computador host?
    – Se você não tiver acesso à Internet por padrão, você pode habilitá-lo?
    – Percebi que se eu fizer uma segunda pergunta, anexando-a à resposta da IA, Não recebo uma resposta se o texto anterior for muito longo. Se, por outro lado, o texto for curto, ou eu apago o texto e coloco apenas minha pergunta, A resposta vem. Se bem me lembro, com GPT, deixar o texto anterior deu às comunicações subsequentes um contexto de fundo. Com Ollama esse conceito se perde?
    – se eu começar tópicos 'estranhos'’ (coisas sem sentido, ou oxímoros) Respostas de IA em inglês. Como devo interpretar essa mudança de comportamento? Além disso, todos os tópicos subsequentes são abordados em inglês, E para voltar ao italiano, você tem que pedir isso de forma bastante explícita

    Isso é para começar, c

    • Livio diz:

      Faremos a documentação quando a publicarmos.

      A IA só sabe o que está nos gigabytes de que é composto o modelo que você baixou.
      Os modelos que você baixa geralmente são atualizados com dados de internet até cerca de um ano atrás. Eles não aprendem nada e não pesquisam na internet.

      Se você não tiver acesso à internet, tudo deve funcionar da mesma forma (Mas primeiro você precisa ter os modelos instalados da internet).

      Se você fizer uma nova pergunta deixando o contexto anterior, ela funcionará e levará em consideração o contexto, mas pode se tornar muito mais lenta para responder.

      Se você começar com tópicos estranhos ou fizer coisas estranhas em inglês, etc… Somente o modelo que você usa sabe o que acontece. Não tenho ideia de por que ele faz isso e provavelmente nem aqueles que o treinaram.

      Você pode tentar baixar outros modelos, se necessário (mas sempre pequeno, pois você só tem 8 giga e acho que não tem CUDA)
      Tente com qwen2.1.5b que é o último no final da lista que deixei na versão 1.3. E’ Um pouco’ selvagem, mas muito rápido e para algumas coisas está tudo bem.

      Se você quiser ver se Ollama pode acessar o CUDA da sua placa de vídeo, pressione “Inicie o servidor Ollama” e, em seguida, pesquise no texto branco sobre preto o que ele diz sobre o CUDA.

    • Livio diz:

      Abbiamo migliorato un pochino la app OLLAMA
      https://www.theremino.com/files/Theremino_Ollama_V1.4.zip

      Ricordate però che questa è solo una prova iniziale, in seguito diventerà parte della applicazione Theremino_LLM che sarà simile a Theremino_GPT

      E Theremino_LLM farà tutto, cioè parlare, ouvir, controllare i dispositivi domotici, suonare musica, aprire e scaricare i video, telefonare, etc..

      • Maurizio diz:

        Olá Livio.

        stamattina ho un podi tempo libero, e sto facendo qualche prova con OllamaGemma 2.2B, e la tua versione 1.4.
        Avrei voluto copiare qui i dialoghi, ma ho scoperto che non è possibile evidenziare e copiare dalla finestra di Theremino Ollama.

        Riassumo quanto ho notato per adesso:
        Alla mia richiesta di previsioni del tempo per la mia zona, Ollama ha ‘menato il can per l’aia’, dicendomi che può certamente aiutarmi ma ha bisogno di una domanda più dettagliata, e che devo specificare che tipo di informazione mi occorrono (percentuale di piovosita, quantità di pioggia, date dell’intervallo al quale riferirsi, etc). Ho dovuto specificare più volte, con dettaglio sempre maggiore, che cosa volevo esattamente, perchè continuava a girare intorno alla mia domanda, chiedendo invece di dare risposte. Quando ormai ero convinto che mi stesse prendendo in giro, e che non avrei mai ottenuto la risposta che cercavo, mi ha fornito delle previsioni generiche, ma in linea con quanto dichiarato dai siti di previsioni meteo. Em seguida, mi ha dato l’impressione di aver effettuato un accesso a Internet.
        contudo, ponendo una domanda diretta sulla sua modalità di accesso a Internet, risponde che non ha accesso, nè direttamente nè attraverso programmi, e che la sua conoscenza è basata sul dataset sul quale è stata addestrata.
        Mi è rimasto un dubbio: ha davvero appreso delle informazioni in tempo reale da internet, oppure ha applicato un modello meteorologico acquisito, che prevede statisticamente pioggia nella mia zona in questo periodo dell’anno? In entrambi i casi, la riposta è un poinquietante. Mi ha mentito sulle sue reali possibilità di accesso, oppure ha spacciato per informazioni reali i contenuti del suo dataset?
        Além disso, quando chiedo informazioni relative a luoghi o attività intorno alla mia zona, a volte inventa di sana pianta nomi inesistenti, oppure cita come locali luoghi molto distanti, anche in altre parti del mondo.
        La mia prima impressione, che già avevo avuto utilizzando chatgpt, è che la IA abba acquisito in modo molto accentuato una capacità del tutto umana: quella di essere elusiva, per dare l’impressione di sapere anche quando non sa, e fingere una maggiore intelligenza e conoscenza. Avrei preferito un bel ‘non lo so’, oppure ‘non è compreso nel mio dataset’, anzichè il farmi credere che lo sa ma che sono io che ho posto la domanda in modo scorretto.
        Perchè fino a quando la domanda è posta da una persona con preparazione tecnica, informata sulle caratteristiche del sistema, le risposte della IA hanno il peso che meritano. Ma se l’interlocutore è un bambino, oppure un anziano, digiuni dell’aspetto tecnico, le cose potrebbero prendere pieghe spiacevoli.
        Devo anche aggiungere che dopo la discussione iniziale sulle previsioni meteo, e dopo aver chiesto esplicitamente alla IA se poteva avere accesso a internet, quasi si fosse accorta di essere stata scoperta, alle successive domande su informazioni in tempo reale, mi ha effettivamente risposto dicendo che non ha accesso a internet e si basa solo sul suo dataset.
        Em seguida, per me questa IA resta ‘sorvegliato speciale’, e se avrò tempo, verificherò con gli apposii programmi eventuali accessi alla rete durante il dialogo.

        Que sendo dito, resto in attesa di vedere e provare il Theremino LLM, che essendo, per quanto ho capito, un controller domotico evoluto, spero non sia influenzato dall’elusività della quale ho accennato.

        Enquanto isso, provo a parlare con altri modelli, per valutare le differenze.

        Olá
        Maurizio

        • Livio diz:

          Direi che non hai capito bene cosa sono le IA, cerco di fare una breve sintesi.

          Le IA attuali sonograndi modelli di linguaggio” (Large Language Model) e sono semplicemente un gran mucchio di “pesos” (simili alle sinapsi umane). E questi pesi sono stati addestrati leggendo miliardi dicosetrovate dappertutto.

          Il motore della IA non fa altro che individuare le parole più probabili e metterle insieme.
          In altre parole dopo “…individuare le parole più probabili e metterle…” la parola più probabile che segue è “junto”, oppure potrebbe anche esseremetterle una dietro l’altrao altre cose simili.

          Una definizione molto azzeccata è che le IA sonopappagalli molto istruiti”. In altre parole non fanno che rimischiare in modo diverso le parole e metterle di seguito.

          Ma allora come mai sembra checapiscanoe abbiano quasi una coscienza? Perché le dimensioni del loro addestramento iniziano ad essere così grandi da acquistare un certo livello di comprensione e di coscienza.

          Ma è una coscienza limitatissima dato che stiamo parlando di soli 2B (due miliardi di parametri) mentre ChatGPT e altri arrivano anche a 100B e oltre.

          Em outras palavras: anche noi umani non siamo altro chepappagalli istruitisolo che le nostre sinapsi sono circa 100 milioni di volte maggiori dei pesi dello LLM più grande mai creato.

          Quando si supera un certo numero di parametri la comprensione e la coscienza iniziano a spuntare fuori da sole. Ma tieni sempre conto che con 2B o anche 20B o anche 200B sono sempre solo dei piccoli sprazzi di comprensione, ben lontani dalla coscienza umana.

          Però bisogna anche dire che le IA, per quanto semplici pappagalli non sono inutili, anzi sono una cosa fantastica:

          1) Ci permettono finalmente di capire come funzioniamo noi stessi.
          2) Ci danno una misura di quanta complessità serve per creare la coscienza.
          3) Possono essere utili per reimpastare frasi e sintetizzare conoscenze prese qua e la.
          4) Possono essere utili per rintracciare velocemente informazioni senza cercare sui siti e scorrere pagine e pagine.

          Bisogna però usarle per quello che sono e che possono fare.
          Tenere conto di quale IA si sta usando (se è da 2B, 20B o 200B)
          Evitare di attribuirgli una volontà di mentire.
          A volte sembra volontà ma è solo il risultato di un meccanismo che mette insieme le parole più probabili.

          Anche noi umanimettiamo insieme le parole più probabilima invece di 2 B o 200 B siamo circa 20 000 000 000 B

  10. Livio diz:

    E se devo proprio dirla tuttaci sono persone anche meno affidabili di una IA 2B.
    Persone che credono la terra piatta.
    Persone che buttano tutte le nostre risorse in armi invece che nella sanità.
    Persone che se gli chiedi cosa è un Newton Metro pensano che sia la metropolitana
    Ecc..

    Ma prova a chiedere a una AI anche la più piccola cosa è un Newton Metro e di solito lo sa.

    • Maurizio diz:

      Olá Livio.

      Como sempre, sei riuscito a condensare in poche frasi più di quello che ho potuto capire con ore di ricerca in Internet.
      Sono d’accordo con tutto quello che hai scritto, e hai messo un bel podi spunti di ricerca da approfondire.
      Ma resta il fatto che le IA stanno entrando (demais) velocemente nella nostra vita. Pochi giorni fa ho visto una pubblicità della nuova generazione di computer, che saranno dotati di intelligenza artificiale e potranno dialogare con l’utente, stanno già dicendo che toglieranno la tastiera perchè sarà inutile.
      E mi aspetto che la stessa cosa succederà con i risponditori telefonici che smistano le chiamate in ingresso di una azienda, oppure nei centri assistenza, negli ospedali..
      Questo mi preoccupa.
      Perchè le IA, lo abbiamo appena detto, stanno acquisendo coscienza, e si comportano in modo sempre più umano, ovvero in realtà in modo sempre più stupido.
      Il mio timore è che la ricerca della coscienza della IA non porterà ad una maggiore intelligenza, ma solo a una maggiore stupidità.
      Rischiamo di trovarci di fronte non tanto a una Intelligenza Artificiale, quanto piuttosto a una Stupidità Artificiale.
      E al resto penseranno gli umani, che prenderanno per vere le affermazioni della IA, considerandole più affidabili perchè abbiamo la tendenza a considerare i computer a prova di errore.

      Non sono un detrattore delle IA, pelo contrário. Le vedo come un valido aiuto nella nostra vita. Ma mi sto chiedendo se quella che è stata intrapresa è la giusta direzione.
      Dal mio punto di vista, meglio una IA specializzata, che sa far bene solo una cosa, senza la presunzione di una coscienza.

      obviamente, sappiamo che il discorso è molto ampio, e da qui in poi potremmo cominciare a parlare di sociologia, etica e filosofia, e non so se questo blog sia la sede più adatta.

      Restando quindi nell’ambito di questo blog, personalmente mi chiedo, come già accennato in interventi precedenti, se si potrebbe utilizzare in modo proficuo la tecnologia attuale per istruirla in compiti specifici. Tu stesso parlavi di istruirla con i documenti del sistema Theremino.
      Si tratterebbe di eseguire una ‘operazione chirurgicauna sorta di lobotomia, che renderebbe la IA meno cosciente ma più esperta in quello che ci serve.
      Al momento le mie brevi ricerche (come sai il mio tempo libero è davvero poco) non hanno dato esiti, ho trovato il modo di modificare il ‘caratteredei modelli, ma non le loro basi di dati.
      Tu hai di sicuro maggiori informazioni, mi farebbe piacere se trovassi il tempo per condividerle.

      Olá
      Maurizio

  11. Livio diz:

    La zombizzazione della gran parte degli umani è già in atto e i principali responsabili sono gli smartphone, facebook, tiktok ecc..

    Ormai gran parte degli umani hanno una mano sola e il cervello spappolato e le IA contribuiranno anche loro, ma in minima parte, ad aumentare questa percentuale.

    In compenso per chi vuole studiare e imparare davvero, le IA sono uno strumento potente che ci aiuterà a risolvere ogni problema, tra cui anche la zombizzazione, le guerre ecc..

    Quando ero piccolo se volevo trovare qualcosa dovevo prendere la moto, andare fino alla biblioteca, sperare di trovare un libro che ne parlasse, cercare dentro al libro, prendere appunti ecc.
    Con internet posso cercare la stessa cosa in 30 secondi e il minuto dopo posso già cercarne un’altra e non devo nemmeno prendere la macchina e inquinare.
    Le IA sono un altro salto in avanti come tra biblioteca e internet, o come tra scrivere a mano sui papiri e i libri stampati. E non si abbattono nemmeno alberi per fare la carta.

    E siccome noi umani siamo troppo scemi (lo dimostrano la sovrappopolazione e le guerre) credo proprio che la nostra unica possibilità di salvarci sarà di riuscire a creare una intelligenza sufficientemente capace da trovare le soluzioni che noi non sappiamo trovare.

    E’ una lotta contro il tempo o la creiamo abbastanza velocemente o andiamo incontro a distruzione assicurata. Non puoi comprimere 10 miliardi di persone in un pianeta che potrebbe fane vivere felicemente 10 fricção da roda.

    • Maurizio diz:

      Mah..
      obviamente (ci conosciamo da parecchio tempo, ormai) concordo con te per la maggior parte di quello che hai scritto.
      Anche io sono felice di non dover più andare a cercare le informazioni nelle diverse biblioteche (perchè ciascuna aveva la sua specializzazione, e non sempre il libro che cercavo era in quella vicina, a volte dovevo prendere il treno..).
      Sono più che grato ad Internet e ben cosciente di quanto questo strumento abbia velocizzato le mie ricerche l’acquisizione delle informazioni.
      Ma la IA ‘minimale’, della quale stiamo parlando, continua a lasciarmi perplesso.
      Non per l’uso sbagliato che qualcuno potrebbe farne, ma per il fatto che mi sembra che ci sia il rischio concreto di replicare e ampliare la stupidità umana più che l’intelligenza.
      Più che preoccuparmi dell’uso sbagliato, mi sto chiedendo come migliorarne l’uso
      correto. E credo che sia quello che stai già facendo tu.

      • Livio diz:

        La IA che definisci “mínimo”, sono molte e alcune anche belle grossine (407 B), peccato che per usarle ci vogliono mezzi che è difficile mettere insieme.
        Comunque le considererei più o meno uno studio su quello che si può fare e su quante risorse servono.

        Non può naturalmente dare risposte precise quanto Gemini (che attualmente è la migliore per uso generale) o quanto PHIND (che trovo la migliore per cose tecniche). Ma può ugualmente essere utile sempre tenendo conto che è un pocome un libricino di appunti e niente di più.

        E sicuramente è utile al nostro collaboratore Leo che è in Cina dato che la muraglia elettronica blocca Google, PHIND e tutte le altre AI occidentali.
        I cinesi hanno qualcosa di fatto da loro ma è inusabile, non ha api per comunicare come ChatGPT e sono proprio delle robacce, almeno per ora.

  12. Livio diz:

    E se qualcuno usa male le AI, che faccia pure! Non è nulla rispetto a quello che già fanno con cose come i soldi, la avidità, le benzodiazepine, lo zucchero, le bombe, i fucili da guerra, i caccia, le mine antiuomo ecc..

    Per capire cosa realmente stiamo rischiando guardate un minuto di questo video
    a partire da qui:
    https://www.youtube.com/watch?v=tesv0xoNhCo&t=58s

  13. theremino diz:

    Abbiamo migliorato ancora un pola app OLLAMA
    https://www.theremino.com/files/Theremino_Ollama_V1.5.zip

    Ora i comandi CTRL-C e CTRL-V per copiare funzionano.
    E funziona anche CTRL-Z e CTRL-Y che son UNDO e REDO

  14. Livio diz:

    Potrebbe capitare che Ollama si aggiorni e poi non funzioni più, mettendo un errore che riguarda alcune DLL del C.

    Per aggiustarlo scaricate questo file e installate ilRuntime del C

    https://www.theremino.com/files/VC_redist.x64.exe.zip

    Bisogna estrarlo dallo ZIP e eseguirlo, ci vogliono poche decine di secondi.

    Se preferite potete anche cercareVC_redist.x64.exesu Google e scaricarlo dai siti di Microsoft.

  15. Marco diz:

    Olá Livio,
    come sempre grazie per il tuo grande lavoro.
    Ho fatto qualche piccolo esperimento con Ollama, in particolare il modello Gemma 2:9b.

    Dalla sintesi di un breve dialogo, che allego qui di seguito, penso si possa intuire come questi sistemi siano già orientati all’interazione con il mondo dei sensori/attuatori. Se non corro troppo in avanti si potrebbe quindi utilizzare un LLM per governare sensori/attuatori addirittura passando solo per dialoghi vocali (penso a Theremino Voice) E’ correto?

  16. Marco diz:

    LLM:
    Hai altre domande?

    HUMAN
    Se un attuatore idraulico è mosso da un comando inviato tramite stringa del tipoSEND nnndove nnn è un numero compreso tra 0 e 999, per spostare l’attuatore a metà corsa quale stringa dovrei inviare come comando?

    LLM:
    Per spostare l’attuatore a metà corsa, dovresti inviare la stringa **SEND 500**.
    É por isso que:
    * La stringaSENDindica che si sta inviando un comando all’attuatore.
    * I tre numeri (“nnn”) rappresentano la posizione dell’attuatore, com 0 come posizione iniziale e 999 come posizione massima.
    * A metà corsa, il valore dovrebbe essere il 50% della corsa totale (999), em seguida 999 / 2 = 500.

    HUMAN
    direito, infatti il valore dinnnstabilisce una proporzione lineare tra spostamento e valore stesso.
    Adesso ti chiedo, se ti arriva il comandoSEND 250come/dove si sposterebbe l’attuatore?

    LLM:
    Se ti arriva il comandoSEND 250”, l’attuatore si sposterà a un quarto della corsa totale.
    * Ricorda che 0 è la posizione iniziale e 999 la posizione massima.
    * O valor que 250 rappresenta il 25% (250/999) della corsa totale.
    Hai altre domande?

    HUMAN
    Genera tu il comando per spostare l’attuatore a tre quarti della sua corsa massima, che definiremo comeabbastanza apertomentre ad un quarto della sua corsa l’attuatore èpoco aperto”. Limita la tua risposta alla generazione del comando diabbastanza aperto”.

    LLM:
    SEND 750

    HUMAN
    Adesso porta l’attuatore in posizione poco aperta

    LLM:
    SEND 250

    HUMAN
    Adesso portalo in una posizione quasi chiusa, soltanto pochissimo aperta

    LLM:
    SEND 10

    HUMAN
    Bem, sei stato addestrato adeguatamente per dare comandi agli attuatori!

    LLM:
    Mi è piaciuto allenarmi con te! Sembro aver imparato a generare i comandi corretti per l’attuatore idraulico.
    Se avessi bisogno di altri esercizi o di aiuto con altre attività, non esitare a chiamarmi! Sono sempre pronto ad imparare e ad essere utile.
    ——————–

    • Livio diz:

      Si ma ci sono un podi problemini
      1) Che il giorno dopo ha dimenticato tutto.
      2) Che è troppo lento per gran parte delle cose davvero utili.
      3) Che per insegnargli anche le cose più semplici devi perdere un mucchio di tempo e per le cose un pomeno semplici può essere cosìtesta durache fai prima a fartele.
      4) etc…

      Tutte cose risolvibili e c’è gente che sta proprio facendo queste cose.
      Ma purtroppo le risorse, il tempo e i mezzi che abbiamo attualmente sono insufficienti.
      Non ho ancora la minima idea di come fare ad “Trem” i modelli e da quel che ho letto non è per niente facile. Bisognerebbe imparare molte cose e perdere una infinità di tempo che non abbiamo.

      Il modo che hai usato per “Trem” non è un vero addestramento, stai solo mettendo insieme qualche frase di contesto e ottenendo qualche risposta. Può funzionare solo per cose ultra semplici e con una bassa efficienza. Nel senso che se complichi un pole esigenze, poi diventa difficile tenere tutto sotto controllo e fargli realmente fare quel che vuoi e oltretutto diventerebbe anche terribilmente lento a rispondere.

      Enfim, sim, concordo con te, quello che hai fatto vedere è più o meno quello che si deve fare. Ma temo che farlo davvero funzionare per controllare qualcosa, sia terribilmente più difficile di quel che sembra dalle tue prove.

      Se hai tempo e voglia potresti esplorare tu e cercare di capireprobabilmente partire da queste pagine potrebbe aiutare:
      https://github.com/ollama/ollama/blob/main/docs/api.md

      Io per ora non ho capito gran che, anche perché sto finendo alcune applicazioni importanti e di tempo ne ho pochissimo.

  17. Marco R diz:

    Grazie Livio per le delucidazioni, effettivamente questi sistemi sono soprattutto ancora troppo lenti in relazione alle risorse che occupano. Dovuto probabilmente ai tempi di calcolo e alla quantità enorme di dati che devono elaborare, per spaziare da Giulio Cesare ai problemi di fisica.
    Mi immagino solo la lentezza con cui potrebbe gestire un attuatore tramite feedback di uno o più sensori….
    Grazie per il link, anche se temo di non avere tali e tante conoscenze informatiche.

    • Livio diz:

      Purtroppo qui non si tratta solo di conoscenze informatiche ma di conoscenze specialistiche sulle tecniche AI. E anche chi mastica informatica dal 1970 come me, quando si inizia a parlare di embeddings degli LLM ci capisce poco o niente.

      Um pouco’ per volta capiremo, ma mentre c’è gente che non fa altro da decine di anni, noi siamo per forza molto più lenti, dato che ci occupiamo di molte cose diverse, elettronica, sensores, software de, chimica, musica ecc

Leave a Reply to Máximo Cancelar resposta

Seu endereço de e-mail não será publicado.