在这里写问题, 评论, 建议和新的想法. 写的名字或昵称像 “我” 或 “皮波”, 将其他框留空.
此外将添加 “电子邮件” 仅用于明确区分. 如果您想要添加邮件做到信心, 我们有更好的事情要做, 我们收集的垃圾邮件的地址.
博客不是所有在此页, 你转到菜单 “博客” 选择一个主题.
如果你找不到适当的博客节, 在此页上输入和我们会, 找到正确的部分, 或创建一个新.
插入图像和突出的博客帖子
插入图片:
<img src ="HTTPS://www.xxxx.yyyy.zzzz.jpg" alt ="图像描述"/>
突出显示文本的一部分:
<大跨度风格 ="背景颜色: #ffff99;">突出显示文本</跨度>
随时可以犯错,实验在员额. 如果出了什么差错, 只是写第二个职位, 与做的更正. 我们将做更正,并最后我们将取消服务消息.
你好 Livio, 对你所做的工作总是有很多赞美.
我下载了theremino留声机, 因为我想尝试在热泵的声学水平上进行一些测量 (冷凝机组室外机) 在各种运行速度下. 我找不到, 如果我是对的, 有关下载资源中与主站ECM8000的麦克风原理图/连接指示.
你能给我一些这方面的信息吗??
谢谢,好的工作.
罗伯托 ·
麦克风ECM8000必须连接到由 Behringer 制造的特殊 U-PHORIA UM2 声卡
https://www.behringer.com/product.html?modelCode=P0118
https://www.behringer.com/product.html?modelCode=P0DZ3
与类似质量的产品相比,它们的成本非常低.
最终,您还可以使用具有相同特性的其他声卡为麦克风供电, 但始终适用于为电容式麦克风供电.
如果您还有其他疑问,请询问制造了许多这些控制单元的 Marco. 也许它还可以为您提供二手组件,当然也可以为您提供很好的建议,以及我们尚未发布的最新版本的仪表和详细说明程序.
https://www.theremino.com/contacts/about-us#marco
另请阅读文档的 PDF 文件.
你好
里维奥
非常感谢Livio, 我会按照你的建议联系马可.
晚上好
不幸的是, Theremino GPT 不再有效, 我们会找到一个解决方案,但与此同时,要使其正常工作,您必须在 OpenAI 上制作自己的密钥,如您可以从此处下载的“Theremino_GPT_Help.pdf”文件中所述:
https://www.theremino.com/downloads/intelligenza-artificiale#openai
发生了什么事?
从那以后的日子里有人 7 12 月迄今为止,GPT4 的使用方式是 “不适度” 在短短几天内,它使用了一百万个代币, 通过批量发送与我们帐户关联的 API 密钥.
让我们借此机会向那些还不知道 GPT4 非常昂贵的人解释一下, 比 GPT 贵 30 倍 3.5 汽.
此外,GPT4 响应缓慢,因此应谨慎使用,仅在必要时使用.
———————
在接下来的几天里, 我们将发布新版本的 Theremino GPT, 因此,请留意新闻页面上的这些消息.
现在, 正如已经写, 如果你想使用 Theremino GPT, 你必须在 OpenAI 上制作自己的密钥.
我们已经重置 Theremino GPT 以工作.
版本 4.7 无需制作自己的密钥即可恢复操作 (将 OpenAI-KEY 框留空).
提醒一下,我们的 API-KEY 仅适用于 GPT-3.5-turbo.
让我们借此机会向那些还不知道 GPT4 非常昂贵的人解释一下, 比 GPT 贵 30 倍 3.5 汽. 此外,GPT4 响应缓慢,因此应谨慎使用,仅在必要时使用.
下载 4.7 从这里:
https://www.theremino.com/downloads/intelligenza-artificiale#openai
你好 Livio 和 Theremino 的所有开发人员. 我祝贺你所做的一切.
我想分享一个事实,即我已经成功连接到theremino Iot Module (TTGO7版本1.3) 一个非常有趣的 I2C 探头, 至少对我来说. 这是带有 BME280 传感器的 Bosh 探头, 这是一个压力传感器, 温度和湿度. 我买的标本 (约10欧元) 品牌名称为 mikroBUS.
显然,我已经修改了固件,使其正确读取,并在下面报告程序, 也许它作为一个额外的例子很有用.
我与引脚建立了物理连接 21(国家药品监督管理局) 和 22(沙田至中环线) 这是 I2C 通信中 ESP32 的标准. 我已经在其他示例中看到,您可以使用 Wire 库随意更改它们, 我在这里没有成功,所以我就这样离开了他们.
在 IotHAL 中,数据引脚设置为 “Gen_in_float”.
电源电压为3.3V.
再次感谢你. 有好的一天.
Alberto
固件:
// ----------------------------------- Do not remove ---------
#include "IotModule\IotModule.h"
cIotModule IotModule;
// -----------------------------------------------------------
#include “Wire.h”
#include “SPI.h”
#include “Adafruit_Sensor.h”
#include “Adafruit_BME280.h”
#define SEALEVELPRESSURE_HPA (1013.25)
Adafruit_BME280 bme; // I2C
float pressure, mbar_pressure;
// ========================================================================
// SETUP
// ========================================================================
void setup()
{
Serial.begin(9600);
// ------------------------------------ Do not remove ---------
IotModule.initialize();
// ------------------------------------------------------------
unsigned status;
// default settings
// collegare il modulo ai pin corretti (ttgo7ver1.3 SDA:pin 21 SCL:pin 22)
status = bme.begin(0x76);
if (!status)
{
Serial.println("indirizzo sbagliato");
}
}
// ========================================================================
// LOOP
// ========================================================================
void loop()
{
Serial.print(bme.readTemperature());
Serial.print("\n");
IotModule.genericWriteFloat(36, bme.readTemperature());
pressure = bme.readPressure();
mbar_pressure = pressure/100.0 ;
Serial.print(mbar_pressure);
Serial.print("\n");
IotModule.genericWriteFloat(39, mbar_pressure);
Serial.print(bme.readHumidity());
Serial.print("\n");
IotModule.genericWriteFloat(35, bme.readHumidity());
delay(100);
}
你好 Livio
带有更新的 Theremino 系统 (例如:Graphs) 真正成为一种独特的工具. 祝贺.
好奇心. 我看到了您对人工智能的兴趣, 我自己正在尝试针对我感兴趣的主题创建自定义 GPT. 在您看来,可以让自定义 gpt 创建一个代码粘贴到 theremino 自动化中,以解释我想做什么 ?
成功将是一件好事,但我们还没有学会培训他们.
如果您可以通过提供我们编写的所有 PDF 来训练模型,那就太好了, 我们有数百个应用程序,然后它可以极大地方便使用我们的应用程序.
很快,我们将发布不再依赖 OpenAI 而只依赖开源模型的 Theremino_LLM.
Theremino_LLM, 说, 叫, 播放音乐, 执行家庭自动化命令, 等…
但现在我们仅限于使用现成的, 可以在此页面上找到:
https://ollama.com/library
非常好, 我想象你正在球上.
在我的无知中,在第一次尝试中,我意识到的第一件事是 AI 更多地做它想做的事,而不是你想要的,而且训练根本不清楚, 至少简单用户可以使用 “创建您自己的 GPT”.
但 “创建您自己的 GPT” 您在哪里进行?
在某些 OpenAI 页面或其他地方?
在 chatGPT 中,有选项 “探索 GPT” 你可以做到 “创建”
您可以在自定义 GPT 中上传它们以上传参考文件, 以及参考说明.
您在会话期间提供给他们的反馈将在会话关闭时丢失.
您还可以通过 API 与外界互动 (但这对我来说太复杂了)
例如,我正在制作一个来比较振动文件, 但他所做的事情并没有太多的一致性, 例如,阻尼有时以一种方式计算它们,有时以另一种方式计算它们, 我试图将其限制为更精确的指令
理解, 无论如何,我们正在脱离 OpenAI,未来我们只使用 Ollama 做开源的事情.
OpenAI 必须 “开放” 但后来他愚弄了所有人,如果你想用蜜蜂,你就得付钱买它们. 所以我们决定放弃他们.
和’ 一件非常好的事情, 我试着看看 Ollama
如果您执行测试,请使用 gemma2:2b 又快又轻
请记住,一切都在本地工作,因此您必须有足够的内存 (最低 8 Giga 适用于较小的模型,但效果更好 16, 32 或 64 千兆)
如果您想使用更大的模型,除了 ram 之外,您还需要一个最新的显卡,可以在 Ollama 上启用 CUDA, 否则,CPU 将转到 90 100% 并缓慢响应.
由 gemma2:2b 即使在小型机器上,您的速度也相当快,并且它已经包含了大量的信息, 我要求一切,他什么都知道. 它还可以在所有语言中都能说得很好,并且与 ChatGPT 非常相似 3, 总之 2 千兆.
如果您想做一些测试,您可以下载我们正在使用的这个小应用程序来尝试 Ollama 的可能性
https://www.theremino.com/files/Theremino_Ollama_V1.1.zip
你好 Livio.
我尝试启动可执行文件, 但我不明白如何让它工作.
如果我按“显示模型信息”, 我看到一个 cmd.exe 窗口,上面写着 “奥拉马” 未识别为内部或外部命令,
可执行程序或批处理文件。’
我尝试按“在此计算机上启动 ollama 服务器”, 在程序窗口中,我看到“现在 Ollama 服务器正在这台计算机上运行.
从其他设备访问此服务器:
– 使 COM 窗口保持打开状态
– 使用这台电脑的 IP, 从以下列表中:
169.254.213.179 以太网
192.168.100.17 以太网
169.254.78.201 本地连接 (局域网)
192.168.56.1 以太网 3
169.254.216.136 本地连接 (局域网)* 1
169.254.139.102 本地连接 (局域网)* 2
10.146.10.56 Talk2m-eCatcher 系列
169.254.138.238 Talk2m-eCatcher 系列
192.168.1.229 无线上网’
另外, 我经常遇到一个未在应用程序中处理的异常窗口’
我尝试下载并安装 ollama, 并且安装成功, 但它的效果并不相同.
现在它似乎在我看来: 找不到模型, 请下载并重试.
您可以编写更多信息?
谢谢
毛里齐奥
首先,您必须安装 ollama,我认为您已经做到了
然后你必须安装模板,然后它才能工作.
选择 gem2:2b 或模板框中的另一个小的.
然后按 “安装模型” 并等待它安装.
如果模板框中缺少模板,
奖项 “编辑模型列表” ,然后在 Templates (模板) 页面上选择
最后将其添加到列表中.
如果您仍然无法将 Skype 安装到 PC 上
并像 livio_enrico 一样称呼我
它对我有用.
但并非总是如此.
我时不时也会觉得 “找不到模型, 请下载它,但未找到 retryModel, 请下载并重试”
但是如果我直接转到 c 提示符;Windows 等有效
您已安装了最小、最快的型号?
杰玛2:2b
第一次回答需要多长时间?
(当他回应时)
Dico questo perché se installi modelli molto lenti o hai poca ram o hai la cpu lenta, allora potrebbe metterci decine di secondi e poi andare in timeout.
Se tutto va bene il gemma2:2b dovrebbe rispondere alla prima domanda entro 7 或 10 secondi al massimo. E alle domande seguenti in modo immediato, cioè pochi decimi di secondo. E le parole dovrebbe sempre generarle velocemente, quasi dieci parole al secondo.
si ho installato gemma2:2b non ci mette decimi di secondo ma anche 7-8 秒. Ma penso che questo sia legato al mio pc.
Ma c’è modo di addestrarlo caricando informazioni o documenti ?
carateristiche del mio pc
Processore AMD Ryzen 5 3500U with Radeon Vega Mobile Gfx 2.10 G h z
RAM installata 8,00 GB (6,94 GB utilizzabile)
Ci mette 7 8 secondi la prima volta.
Ma se fai una seconda domanda senza attendere troppo tempo è istantaneo no ?
要加快速度,您可以做的第一件事是购买两个 DIMM (我相信 DIMM4) 之 16 每个并将它们添加到您拥有的 DIMM 中.
因此,您可以 40 giga 的 Giga ,您甚至可以运行稍大的模型.
但是,如果是笔记本电脑,您需要价格高出两倍以上的小型 DIMM,我不知道您是否能买到 64 与普通 PC 一样的总 GB.
在所有情况下,请注意 PIN 码, 前往 DDR 3 或 4, 和维度, 否则你买的东西你将无法组装.
关于培训他们,则完全是另一回事, 目前,我们已经有足够的资源使它们在 Theremino_LLM 应用程序中运行良好,这将类似于 Theremino_GPT (无所不能, 说, 听, 控制家庭自动化设备, 播放音乐和视频等。)
我希望你还没有使用这个部分 “服务器” 因为它仍然运行不善.
服务器部分允许您在单台计算机上安装 Ollama (可能有很多 RAM 和 CUDA) 然后从网络上的所有其他 PC 使用它.
但是,如果您在一台 PC 上工作,您实际上并不需要它.
在版本 1.2 你从这里下载, server 部分也运行良好:
https://www.theremino.com/files/Theremino_Ollama_V1.2.zip
这里还有一个缺陷是版本 1.3
https://www.theremino.com/files/Theremino_Ollama_V1.3.zip
你好 Livio.
我安装了该版本 1.3 现在,按照您的指示工作.
当然是一本小手册, 即使是一个小页面, 可以提供帮助.
例如,, 仅从界面来看,我并不了解服务器的事情.
在我的情况下,响应速度是可以接受的, 在你提到的时代.
我有几个问题:
– AI 使用离线数据库进行响应或使用主机的连接进行自主搜索?
– 如果您默认无法访问 Internet, 您可以启用它?
– 我注意到,如果我通过将其附加到 AI 的答案来提出第二个问题, 如果前面的文本很长,我得不到答案. 另一方面,如果文本很短, 或者我删除了文本并只放置了我的问题, 答案来了. 如果我没记错的话, 使用 GPT 时,保留前面的文本会为后续通信提供背景上下文. 在 Ollama 中,这个概念就消失了?
– 如果我开始“奇怪”的话题’ (荒谬的事情, 或矛盾修辞法) 英文 AI 答案. 我应该如何解释这种行为变化? 另外, 所有后续主题均以英语进行讨论, 要回到意大利语,你必须非常明确地要求它
这是从, C
我们将在发布时进行文档编写.
AI 只知道您下载的模型是由 GB 组成的 GB 中的内容.
您下载的模型通常使用大约一年前的 Internet 数据进行更新. 他们什么都学不到,也不在互联网上搜索.
如果您无法访问 Internet,则一切应该相同 (但首先您需要从 Internet 安装模板).
如果你提出一个新问题,离开之前的上下文,它会起作用并考虑上下文,但回答速度可能会慢得多.
如果你从奇怪的话题开始或用英语做奇怪的事情等… 只有您使用的模型知道会发生什么. 我不知道他为什么这样做,可能那些训练他的人也不知道.
如有必要,您可以尝试下载其他模板 (但总是很小的,因为你只有 8 giga 我认为没有 CUDA)
尝试使用 qwen2.1.5b,这是我在版本中留下的列表底部的最后一个 1.3. 和’ 一点儿’ 狂野但非常快,对于某些事情来说没关系.
如果您想查看 Ollama 是否可以访问您的视频卡的 CUDA,请按 “启动 Ollama 服务器” 然后搜索黑底白字文本,了解它对 CUDA 的看法.
Abbiamo migliorato un pochino la app OLLAMA
https://www.theremino.com/files/Theremino_Ollama_V1.4.zip
Ricordate però che questa è solo una prova iniziale, in seguito diventerà parte della applicazione Theremino_LLM che sarà simile a Theremino_GPT
E Theremino_LLM farà tutto, cioè parlare, 听, controllare i dispositivi domotici, suonare musica, aprire e scaricare i video, telefonare, 等。.
你好 Livio.
stamattina ho un po’ di tempo libero, e sto facendo qualche prova con Ollama – Gemma 2.2B, e la tua versione 1.4.
Avrei voluto copiare qui i dialoghi, ma ho scoperto che non è possibile evidenziare e copiare dalla finestra di Theremino Ollama.
Riassumo quanto ho notato per adesso:
Alla mia richiesta di previsioni del tempo per la mia zona, Ollama ha ‘menato il can per l’aia’, dicendomi che può certamente aiutarmi ma ha bisogno di una domanda più dettagliata, e che devo specificare che tipo di informazione mi occorrono (percentuale di piovosita, quantità di pioggia, date dell’intervallo al quale riferirsi, 等). Ho dovuto specificare più volte, con dettaglio sempre maggiore, che cosa volevo esattamente, perchè continuava a girare intorno alla mia domanda, chiedendo invece di dare risposte. Quando ormai ero convinto che mi stesse prendendo in giro, e che non avrei mai ottenuto la risposta che cercavo, mi ha fornito delle previsioni generiche, ma in linea con quanto dichiarato dai siti di previsioni meteo. 然后, mi ha dato l’impressione di aver effettuato un accesso a Internet.
然而, ponendo una domanda diretta sulla sua modalità di accesso a Internet, risponde che non ha accesso, nè direttamente nè attraverso programmi, e che la sua conoscenza è basata sul dataset sul quale è stata addestrata.
Mi è rimasto un dubbio: ha davvero appreso delle informazioni in tempo reale da internet, oppure ha applicato un modello meteorologico acquisito, che prevede statisticamente pioggia nella mia zona in questo periodo dell’anno? In entrambi i casi, la riposta è un po’ inquietante. Mi ha mentito sulle sue reali possibilità di accesso, oppure ha spacciato per informazioni reali i contenuti del suo dataset?
另外, quando chiedo informazioni relative a luoghi o attività intorno alla mia zona, a volte inventa di sana pianta nomi inesistenti, oppure cita come locali luoghi molto distanti, anche in altre parti del mondo.
La mia prima impressione, che già avevo avuto utilizzando chatgpt, è che la IA abba acquisito in modo molto accentuato una capacità del tutto umana: quella di essere elusiva, per dare l’impressione di sapere anche quando non sa, e fingere una maggiore intelligenza e conoscenza. Avrei preferito un bel ‘non lo so’, oppure ‘non è compreso nel mio dataset’, anzichè il farmi credere che lo sa ma che sono io che ho posto la domanda in modo scorretto.
Perchè fino a quando la domanda è posta da una persona con preparazione tecnica, informata sulle caratteristiche del sistema, le risposte della IA hanno il peso che meritano. Ma se l’interlocutore è un bambino, oppure un anziano, digiuni dell’aspetto tecnico, le cose potrebbero prendere pieghe spiacevoli.
Devo anche aggiungere che dopo la discussione iniziale sulle previsioni meteo, e dopo aver chiesto esplicitamente alla IA se poteva avere accesso a internet, quasi si fosse accorta di essere stata scoperta, alle successive domande su informazioni in tempo reale, mi ha effettivamente risposto dicendo che non ha accesso a internet e si basa solo sul suo dataset.
然后, per me questa IA resta ‘sorvegliato speciale’, e se avrò tempo, verificherò con gli apposii programmi eventuali accessi alla rete durante il dialogo.
话虽这么说, resto in attesa di vedere e provare il Theremino LLM, che essendo, per quanto ho capito, un controller domotico evoluto, spero non sia influenzato dall’elusività della quale ho accennato.
同时, provo a parlare con altri modelli, per valutare le differenze.
你好
毛里齐奥
Direi che non hai capito bene cosa sono le IA, cerco di fare una breve sintesi.
Le IA attuali sono “grandi modelli di linguaggio” (Large Language Model) e sono semplicemente un gran mucchio di “重量” (simili alle sinapsi umane). E questi pesi sono stati addestrati leggendo miliardi di “cose” trovate dappertutto.
Il motore della IA non fa altro che individuare le parole più probabili e metterle insieme.
In altre parole dopo “…individuare le parole più probabili e metterle…” la parola più probabile che segue è “在一起”, oppure potrebbe anche essere “metterle una dietro l’altra” o altre cose simili.
Una definizione molto azzeccata è che le IA sono “pappagalli molto istruiti”. In altre parole non fanno che rimischiare in modo diverso le parole e metterle di seguito.
Ma allora come mai sembra che “capiscano” e abbiano quasi una coscienza? Perché le dimensioni del loro addestramento iniziano ad essere così grandi da acquistare un certo livello di comprensione e di coscienza.
Ma è una coscienza limitatissima dato che stiamo parlando di soli 2B (due miliardi di parametri) mentre ChatGPT e altri arrivano anche a 100B e oltre.
换句话说: anche noi umani non siamo altro che “pappagalli istruiti” solo che le nostre sinapsi sono circa 100 milioni di volte maggiori dei pesi dello LLM più grande mai creato.
Quando si supera un certo numero di parametri la comprensione e la coscienza iniziano a spuntare fuori da sole. Ma tieni sempre conto che con 2B o anche 20B o anche 200B sono sempre solo dei piccoli sprazzi di comprensione, ben lontani dalla coscienza umana.
Però bisogna anche dire che le IA, per quanto semplici pappagalli non sono inutili, anzi sono una cosa fantastica:
1) Ci permettono finalmente di capire come funzioniamo noi stessi.
2) Ci danno una misura di quanta complessità serve per creare la coscienza.
3) Possono essere utili per reimpastare frasi e sintetizzare conoscenze prese qua e la.
4) Possono essere utili per rintracciare velocemente informazioni senza cercare sui siti e scorrere pagine e pagine.
Bisogna però usarle per quello che sono e che possono fare.
Tenere conto di quale IA si sta usando (se è da 2B, 20B o 200B)
Evitare di attribuirgli una volontà di mentire.
A volte sembra volontà ma è solo il risultato di un meccanismo che mette insieme le parole più probabili.
Anche noi umani “mettiamo insieme le parole più probabili” ma invece di 2 B o 200 B siamo circa 20 000 000 000 B
E se devo proprio dirla tutta… ci sono persone anche meno affidabili di una IA 2B.
– Persone che credono la terra piatta.
– Persone che buttano tutte le nostre risorse in armi invece che nella sanità.
– Persone che se gli chiedi cosa è un Newton Metro pensano che sia la metropolitana…
– Ecc..
Ma prova a chiedere a una AI anche la più piccola cosa è un Newton Metro e di solito lo sa.
你好 Livio.
一如往常, sei riuscito a condensare in poche frasi più di quello che ho potuto capire con ore di ricerca in Internet.
Sono d’accordo con tutto quello che hai scritto, e hai messo un bel po’ di spunti di ricerca da approfondire.
Ma resta il fatto che le IA stanno entrando (太多了) velocemente nella nostra vita. Pochi giorni fa ho visto una pubblicità della nuova generazione di computer, che saranno dotati di intelligenza artificiale e potranno dialogare con l’utente, stanno già dicendo che toglieranno la tastiera perchè sarà inutile.
E mi aspetto che la stessa cosa succederà con i risponditori telefonici che smistano le chiamate in ingresso di una azienda, oppure nei centri assistenza, negli ospedali..
Questo mi preoccupa.
Perchè le IA, lo abbiamo appena detto, stanno acquisendo coscienza, e si comportano in modo sempre più umano, ovvero in realtà in modo sempre più stupido.
Il mio timore è che la ricerca della coscienza della IA non porterà ad una maggiore intelligenza, ma solo a una maggiore stupidità.
Rischiamo di trovarci di fronte non tanto a una Intelligenza Artificiale, quanto piuttosto a una Stupidità Artificiale.
E al resto penseranno gli umani, che prenderanno per vere le affermazioni della IA, considerandole più affidabili perchè abbiamo la tendenza a considerare i computer a prova di errore.
Non sono un detrattore delle IA, 与此相反. Le vedo come un valido aiuto nella nostra vita. Ma mi sto chiedendo se quella che è stata intrapresa è la giusta direzione.
Dal mio punto di vista, meglio una IA specializzata, che sa far bene solo una cosa, senza la presunzione di una coscienza.
很明显, sappiamo che il discorso è molto ampio, e da qui in poi potremmo cominciare a parlare di sociologia, etica e filosofia, e non so se questo blog sia la sede più adatta.
Restando quindi nell’ambito di questo blog, personalmente mi chiedo, come già accennato in interventi precedenti, se si potrebbe utilizzare in modo proficuo la tecnologia attuale per istruirla in compiti specifici. Tu stesso parlavi di istruirla con i documenti del sistema Theremino.
Si tratterebbe di eseguire una ‘operazione chirurgica’ una sorta di lobotomia, che renderebbe la IA meno cosciente ma più esperta in quello che ci serve.
Al momento le mie brevi ricerche (come sai il mio tempo libero è davvero poco) non hanno dato esiti, ho trovato il modo di modificare il ‘carattere’ dei modelli, ma non le loro basi di dati.
Tu hai di sicuro maggiori informazioni, mi farebbe piacere se trovassi il tempo per condividerle.
你好
毛里齐奥
La zombizzazione della gran parte degli umani è già in atto e i principali responsabili sono gli smartphone, facebook, tiktok ecc..
Ormai gran parte degli umani hanno una mano sola e il cervello spappolato e le IA contribuiranno anche loro, ma in minima parte, ad aumentare questa percentuale.
In compenso per chi vuole studiare e imparare davvero, le IA sono uno strumento potente che ci aiuterà a risolvere ogni problema, tra cui anche la zombizzazione, le guerre ecc..
Quando ero piccolo se volevo trovare qualcosa dovevo prendere la moto, andare fino alla biblioteca, sperare di trovare un libro che ne parlasse, cercare dentro al libro, prendere appunti ecc.
Con internet posso cercare la stessa cosa in 30 secondi e il minuto dopo posso già cercarne un’altra e non devo nemmeno prendere la macchina e inquinare.
Le IA sono un altro salto in avanti come tra biblioteca e internet, o come tra scrivere a mano sui papiri e i libri stampati. E non si abbattono nemmeno alberi per fare la carta.
E siccome noi umani siamo troppo scemi (lo dimostrano la sovrappopolazione e le guerre) credo proprio che la nostra unica possibilità di salvarci sarà di riuscire a creare una intelligenza sufficientemente capace da trovare le soluzioni che noi non sappiamo trovare.
和’ una lotta contro il tempo o la creiamo abbastanza velocemente o andiamo incontro a distruzione assicurata. Non puoi comprimere 10 miliardi di persone in un pianeta che potrebbe fane vivere felicemente 10 数百万.
马来酸酐。.
很明显 (ci conosciamo da parecchio tempo, ormai) concordo con te per la maggior parte di quello che hai scritto.
Anche io sono felice di non dover più andare a cercare le informazioni nelle diverse biblioteche (perchè ciascuna aveva la sua specializzazione, e non sempre il libro che cercavo era in quella vicina, a volte dovevo prendere il treno..).
Sono più che grato ad Internet e ben cosciente di quanto questo strumento abbia velocizzato le mie ricerche l’acquisizione delle informazioni.
Ma la IA ‘minimale’, della quale stiamo parlando, continua a lasciarmi perplesso.
Non per l’uso sbagliato che qualcuno potrebbe farne, ma per il fatto che mi sembra che ci sia il rischio concreto di replicare e ampliare la stupidità umana più che l’intelligenza.
Più che preoccuparmi dell’uso sbagliato, mi sto chiedendo come migliorarne l’uso
更正. E credo che sia quello che stai già facendo tu.
La IA che definisci “最小”, sono molte e alcune anche belle grossine (407 B), peccato che per usarle ci vogliono mezzi che è difficile mettere insieme.
Comunque le considererei più o meno uno studio su quello che si può fare e su quante risorse servono.
Non può naturalmente dare risposte precise quanto Gemini (che attualmente è la migliore per uso generale) o quanto PHIND (che trovo la migliore per cose tecniche). Ma può ugualmente essere utile sempre tenendo conto che è un po’ come un libricino di appunti e niente di più.
E sicuramente è utile al nostro collaboratore Leo che è in Cina dato che la muraglia elettronica blocca Google, PHIND e tutte le altre AI occidentali.
I cinesi hanno qualcosa di fatto da loro ma è inusabile, non ha api per comunicare come ChatGPT e sono proprio delle robacce, almeno per ora.
E se qualcuno usa male le AI, che faccia pure! Non è nulla rispetto a quello che già fanno con cose come i soldi, la avidità, le benzodiazepine, lo zucchero, le bombe, i fucili da guerra, i caccia, le mine antiuomo ecc..
Per capire cosa realmente stiamo rischiando guardate un minuto di questo video
a partire da qui:
https://www.youtube.com/watch?v=tesv0xoNhCo&t=58s
Abbiamo migliorato ancora un po’ la app OLLAMA
https://www.theremino.com/files/Theremino_Ollama_V1.5.zip
Ora i comandi CTRL-C e CTRL-V per copiare funzionano.
E funziona anche CTRL-Z e CTRL-Y che son UNDO e REDO
Potrebbe capitare che Ollama si aggiorni e poi non funzioni più, mettendo un errore che riguarda alcune DLL del C.
Per aggiustarlo scaricate questo file e installate il “Runtime del C”
https://www.theremino.com/files/VC_redist.x64.exe.zip
Bisogna estrarlo dallo ZIP e eseguirlo, ci vogliono poche decine di secondi.
Se preferite potete anche cercare “VC_redist.x64.exe” su Google e scaricarlo dai siti di Microsoft.
Piccoli miglioramenti…
https://www.theremino.com/files/Theremino_Ollama_V1.7.zip
你好 Livio,
come sempre grazie per il tuo grande lavoro.
Ho fatto qualche piccolo esperimento con Ollama, in particolare il modello Gemma 2:9b.
Dalla sintesi di un breve dialogo, che allego qui di seguito, penso si possa intuire come questi sistemi siano già orientati all’interazione con il mondo dei sensori/attuatori. Se non corro troppo in avanti si potrebbe quindi utilizzare un LLM per governare sensori/attuatori addirittura passando solo per dialoghi vocali (penso a Theremino Voice) 和’ 更正?
LLM:
Hai altre domande?
HUMAN
Se un attuatore idraulico è mosso da un comando inviato tramite stringa del tipo “SEND nnn” dove nnn è un numero compreso tra 0 和 999, per spostare l’attuatore a metà corsa quale stringa dovrei inviare come comando?
LLM:
Per spostare l’attuatore a metà corsa, dovresti inviare la stringa **SEND 500**.
这就是为什么:
* La stringa “SEND” indica che si sta inviando un comando all’attuatore.
* I tre numeri (“nnn”) rappresentano la posizione dell’attuatore, 且为 0 come posizione iniziale e 999 come posizione massima.
* A metà corsa, il valore dovrebbe essere il 50% della corsa totale (999), 然后 999 / 2 = 500.
HUMAN
权, infatti il valore di “nnn” stabilisce una proporzione lineare tra spostamento e valore stesso.
Adesso ti chiedo, se ti arriva il comando “SEND 250” come/dove si sposterebbe l’attuatore?
LLM:
Se ti arriva il comando “SEND 250”, l’attuatore si sposterà a un quarto della corsa totale.
* Ricorda che 0 è la posizione iniziale e 999 la posizione massima.
* S = 饱和度 250 rappresenta il 25% (250/999) della corsa totale.
Hai altre domande?
HUMAN
Genera tu il comando per spostare l’attuatore a tre quarti della sua corsa massima, che definiremo come “abbastanza aperto” mentre ad un quarto della sua corsa l’attuatore è “poco aperto”. Limita la tua risposta alla generazione del comando di “abbastanza aperto”.
LLM:
SEND 750
HUMAN
Adesso porta l’attuatore in posizione poco aperta…
LLM:
SEND 250
HUMAN
Adesso portalo in una posizione quasi chiusa, soltanto pochissimo aperta…
LLM:
SEND 10
HUMAN
很好, sei stato addestrato adeguatamente per dare comandi agli attuatori!
LLM:
Mi è piaciuto allenarmi con te! Sembro aver imparato a generare i comandi corretti per l’attuatore idraulico.
Se avessi bisogno di altri esercizi o di aiuto con altre attività, non esitare a chiamarmi! Sono sempre pronto ad imparare e ad essere utile.
——————–
Si ma ci sono un po’ di problemini…
1) Che il giorno dopo ha dimenticato tutto.
2) Che è troppo lento per gran parte delle cose davvero utili.
3) Che per insegnargli anche le cose più semplici devi perdere un mucchio di tempo e per le cose un po’ meno semplici può essere così “testa dura” che fai prima a fartele.
4) 等…
Tutte cose risolvibili e c’è gente che sta proprio facendo queste cose.
Ma purtroppo le risorse, il tempo e i mezzi che abbiamo attualmente sono insufficienti.
Non ho ancora la minima idea di come fare ad “火车” i modelli e da quel che ho letto non è per niente facile. Bisognerebbe imparare molte cose e perdere una infinità di tempo che non abbiamo.
Il modo che hai usato per “火车” non è un vero addestramento, stai solo mettendo insieme qualche frase di contesto e ottenendo qualche risposta. Può funzionare solo per cose ultra semplici e con una bassa efficienza. Nel senso che se complichi un po’ le esigenze, poi diventa difficile tenere tutto sotto controllo e fargli realmente fare quel che vuoi e oltretutto diventerebbe anche terribilmente lento a rispondere.
无论如何,是的, concordo con te, quello che hai fatto vedere è più o meno quello che si deve fare. Ma temo che farlo davvero funzionare per controllare qualcosa, sia terribilmente più difficile di quel che sembra dalle tue prove.
Se hai tempo e voglia potresti esplorare tu e cercare di capire… probabilmente partire da queste pagine potrebbe aiutare:
https://github.com/ollama/ollama/blob/main/docs/api.md
Io per ora non ho capito gran che, anche perché sto finendo alcune applicazioni importanti e di tempo ne ho pochissimo.
Grazie Livio per le delucidazioni, effettivamente questi sistemi sono soprattutto ancora troppo lenti in relazione alle risorse che occupano. Dovuto probabilmente ai tempi di calcolo e alla quantità enorme di dati che devono elaborare, per spaziare da Giulio Cesare ai problemi di fisica.
Mi immagino solo la lentezza con cui potrebbe gestire un attuatore tramite feedback di uno o più sensori….
Grazie per il link, anche se temo di non avere tali e tante conoscenze informatiche.
Purtroppo qui non si tratta solo di conoscenze informatiche ma di conoscenze specialistiche sulle tecniche AI. E anche chi mastica informatica dal 1970 come me, quando si inizia a parlare di embeddings degli LLM ci capisce poco o niente.
一点儿’ per volta capiremo, ma mentre c’è gente che non fa altro da decine di anni, noi siamo per forza molto più lenti, dato che ci occupiamo di molte cose diverse, elettronica, 传感器, 软件, chimica, musica ecc…
Piccoli miglioramenti…
https://www.theremino.com/files/Theremino_Ollama_V1.8.zip
Sono solo esperimenti… ci vorrà un po’ per finire il vero Theremino_LLM