matematico non praticante, ascendente wikipedia. Una persona serissima
@booboo infatti il secondo articolo, quello su substack, comincia appunto dicendo “benvenuti, umanisti: è da decenni che noi, soprattutto a fisica, dobbiamo gestirci questi problemi”.
Io ricordo al liceo con le versioni di latino, anche se c’erano due problemi: non si sapeva di chi fosse il testo da tradurre, e le traduzioni ufficiali erano subito sgamate perché i professori volevano traduzioni letterali anche se brutte a sentirsi.
Con matematica era più semplice: il professore dava un esercizio dalle maturità precedenti e lasciava il libro aperto nei cinque minuti di intervallo prima del compito settimanale, uscendo dall’aula. Qualcuno entrava, trovava l’esercizio, me lo portava e io nei tre minuti restanti dovevo tirare fuori l’equazione corrispondente al problema :-) @aitech
@informapirata @informatica il guaio è che se non ci sarà più Firefox avremo un unico framework per i browser, cioè Chromium, che è vero che è opensource ma è comunque legato a doppio filo con Google…
@talksina @macfranc @aitech questo perché il prompt prende tutto quello che hai fatto nella sessione. Quello che scrivevo stamattina era che però bisogna sempre ricordargli i punti salienti (nel caso tuo, che il protagonista è cieco). Questo perché probabilmente non c’è moltissimo materiale di addestramento e quindi l’llm tende a dimenticare le poche connessioni che ha in favore di connessioni più forti nel corpus di addestramento, come il fatto che la gente guidi un’automobile.
@informapirata beh, io sono sempre stato contro gli LLM usati da soli (a meno che non si chieda loro di scrivere una favola della buonanotte da raccontare alla propria figlia), però di solito non serve essere *così* esperto per accorgersi dell’allucinazione. Poi è chiaro che uno come mio figlio che sa solo fare domande a ChatGPT è messo male, nonostante almeno in teoria sappia che i prompt sono importanti (ma secondo me lo sa solo perché su TikTok qualcuno ha detto che i buoni prompt possono essere venduti, e quando si parla di soldi ha sempre le antenne rizzate)
@Vinciiii @Kurjak @lealternative @Vivaldi io uso Firefox e Vivaldi alternandoli
@Vinciiii @Kurjak @lealternative L’ho scoperto tipo l’altro ieri… https://en.wikipedia.org/wiki/Opera/_(web/_browser)
@Kurjak @lealternative Quanti inizi abbiamo fatto? Solo per i motori di ricerca nel mio post ci sono due esempi. Potrei aggiungere altro: Opera (che è stato creato in Norvegia) ora è di proprietà di un fondo cinese.
Paradossalmente il software potrebbe essere il minore dei problemi, partendo dalle cose FOSS: le infrastrutture dati però lo sono, per non parlare delle UX che non possono essere copiate. E visto che non farei nulla che arriva dall’alto, come finanziare direttamente e indirettamente sistemi costruiti da privati?
@informapirata @libri bisogna avere il coraggio delle proprie idee!
questo non lo so. Sicuramente la loro scuola è stata originale (nel senso che non è partita da altri) e innovativa: Madhava dovrebbe essere ricordato al pari di Archimede e Newton.
@ilarioq mi sa che ti tocca aspettare una settimana o due che arrivi sullo store del Corriere, https://store.corriere.it/Matematica-senza-i-Greci/n8YKEgLW7tQAAAGTBN4rC09P/pc?CatalogCategoryID=udAKEgLV06UAAAGQ7exl4J0%5C_
Come in tutte le collane kiosk, dopo i primi numeri gli edicolanti ordinano solo le copie chieste in anticipo.
@informapirata
io sono fiero di non avere una voce su di me su Wikipedia :-)
(il problema delle foto è che ovviamente devono essere con licenza libera, e la gente da questo orecchio non ci sente…)
cc:
@informatica
nel pleistocene, quando diedi l’esame di TAMC, una delle domande all’orale era scrivere (su carta…) un programma che si automodificava. Io lo scrissi, il professore lo guardò e disse “non funziona”, io lo riguardai e dissi “no. funziona”. Provammo a eseguirlo (sempre su carta) e per fortuna funzionava.
Ma io arrivavo dal giurassico, con la TI-58C dove modificare le istruzioni era la norma…
(no, non ho mai provato a scrivere un input malevolo che cambiasse i dati)
@diegomaninetti non sono esperto, ma credo che la differenza fondamentale stia nel fatto che un AlphaZero applicato agli scacchi sa che esiste una soluzione ottimale e quindi giocando innumerevoli volte con sé stesso tara i suoi pesi con quel gradiente (a parte addestrarsi ogni tanto con salti per non bloccarsi in un minimo relativo), mentre gli LLM devono mettere in conto il doversi inventare qualcosa perché non c’è la “risposta esatta”. O almeno trentacinque anni fa era così.
@out ricordo sempre che una cosa è il modello (open nel caso di DeepSeek), altra cosa il training set che è ancora più importante.
@heliokor il problema però resta sempre lo stesso: come fai a stabilire se uno studente sa trovare la risposta a un problema? Nota che trovare la risposta è indipendente da *come* la si trova. Il mio problema con i chatbot è che si prende la risposta acriticamente. Oggi una tipa su Twitter continuava a citare la risposta dell’AI Assistant Google che diceva che se i referendum non raggiungono il quorum i comitati non ricevono rimborsi, mentre in realtà ne ricevono la metà. @booboo