Risultati per "porting php 5.6 verso 7.4"
8 risultati dal blog · 8.6639 ms
Trovati 8 risultati
-
Rust per inference edge di modelli leggeri: quando la performance supera la produttività di Python
Rust per inference edge di modelli AI leggeri: Candle, Burn, ort. Confronto con Python su latenza, memoria, deploy. Casi d'uso reali per modelli embedding e classificazione.
Ho fatto la prima porting di un servizio di embedding da Python a Rust il 12 aprile 2026, sulla mia sandbox di sperimentazione, con un obiettivo misurabile: capire quanto margine di performance c'è davvero fra i due linguaggi per inference di modelli leggeri (100-500M parametri), e dove vale la pena investire le 5-10x ore di sviluppo che Rust richiede rispetto a Python. L'ambiente di test è una coppia di container su Hetzner CPX31 (4 vCPU AMD EPYC, 8 GB RAM DDR5, 160 GB NVMe, Debia... continua a leggere
-
Software legacy in azienda: perché ignorare la modernizzazione è una bomba a orologeria per il tuo business
Il software legacy mette a rischio la tua azienda ogni giorno. Scopri come e perché la modernizzazione con Laravel è la chiave per la sicurezza e la crescita.
Nel panorama digitale odierno, agilità e sicurezza non sono optional, ma requisiti fondamentali per la sopravvivenza e la crescita di un’azienda. Eppure, troppe PMI italiane convivono con un segreto scomodo: un software gestionale, un CRM custom, un portale interno, o un'applicazione critica per il business, basata su tecnologie obsolete, scritta anni fa, e che oggi rappresenta un vero e proprio fardello. Parliamo di software legacy.La reazione più comune, frutto di anni di e... continua a leggere
-
Testing di API Laravel con Pest 3 nel 2026: dataset, mutation testing e CI per PMI che vogliono dormire
Pest 3 con mutation testing, dataset e arch presets per testare API Laravel. Guida operativa per PMI: cosa testare, come strutturare la suite e portarla in CI.
A novembre 2024 mi è capitato di fare un audit su un'API Laravel di una PMI veneta che gestiva l'integrazione con tre marketplace: ordini in entrata, sincronizzazione catalogo, fatturazione automatica. Il progetto aveva 67 endpoint REST, zero test automatici, e una suite "manuale" su Postman che il team eseguiva quando si ricordava. Il giorno dell'audit, un deploy di routine aveva rotto il calcolo IVA su un endpoint specifico: per 18 ore le fatture generate per uno dei marketplace partiva... continua a leggere
-
GPU cloud per inference LLM self-hosted: Scaleway, Lambda Labs e RunPod a confronto per PMI italiane
Scelta del provider GPU per inference LLM self-hosted: Scaleway, Lambda Labs, RunPod a confronto su costi, disponibilità A100/H100, rete, GDPR per PMI italiane.
A metà febbraio 2026 ho dedicato tre settimane della mia sandbox personale al confronto operativo di tre provider GPU cloud per un use case specifico: inference di Llama 4 70B quantizzato a 4 bit, volume di circa 8 milioni di token al giorno, latenza p95 target sotto i 4 secondi per chunk da 1.024 token. Ho girato lo stesso workload identico - stessa image Docker, stesso modello quantized, stessi benchmark - su Scaleway, Lambda Labs e RunPod, registrando costi orari effettivi, latenza oss... continua a leggere
-
Configurazione di uno Stack LAMP+LAPP su Windows 11 (e Windows 10), con WSL2, Ubuntu 24.04, servizi systemd nativi e ottimizzazioni per lo sviluppo con VS Code
Guida completa per l'installazione e configurazione di uno stack LAMP su Windows 11 e Windows 10 per lo sviluppo locale con VS Code.
Nota: questa guida creata da Maurizio Fonte è anche disponibile come Repository GitHub all'indirizzo github.com/mauriziofonte/win11-wsl2-ubuntu22-setup. Per comodità di lettura, si consiglia di fare riferimento al repo su Github. L'autore è lo stesso, me medesimo :) Ultimo aggiornamento: 10/04/2025. Versione target Ubuntu: 24.04.1 Andrò a guidare lo sviluppatore attraverso l'installazione e la configurazione di uno Stack LAMP+LAPP (Linux, Apache, MySQL, PostgreSQL, ... continua a leggere
-
Sviluppo Web con tecnologie LAMP su ambiente Windows con WSL2
Con lo stack LAMP installato nativamente su Windows tramite WSL2 e l'utilizzo di Visual Studio Code e la continuous integration di Git, sarà possibile sviluppare progetti in ambito Web ed essere più produttivi, testando le condizioni reali di produzione d
Aggiornamento 05/09/2023: è disponibile la nuova guida aggiornata Configurazione di uno Stack LAMP su Windows 11 (e Windows 10), con WSL2, Ubuntu 22.04, servizi systemd nativi e ottimizzazioni per lo sviluppo con VS Code. Si consiglia vivamente di fare riferimento alla nuova guida. Nota: questa guida creata da Maurizio Fonte è anche disponibile come GIST su GitHub all'indirizzo https://gist.github.com/mauriziofonte/00002661cd527a8a457509c5b4b0613d. Lo sviluppo web con tecnologie ... continua a leggere
-
Esigenze di Business e Affidabilità Tecnologica nell'Era Digitale
Business vs Affidabilità Digitale: guida completa su sicurezza, gestione rischi e successo nell'era tecnologica. Scopri come bilanciare innovazione e protezione.
Questo articolo fa parte della NIS2 Awareness - Dettagli tecnico/operativi sulla Direttiva UE 2022/2555 (NIS2)Se hai bisogno di un Consulente Cyber Security esperto, contattami senza impegno. Grazie alla collaborazione con un team multidisciplinare di esperti sapremo seguirti nel processo di Analisi, di Procedura, e di Implementazione delle misure tecnico-operative di adeguamento.NIS2: Obblighi, Scadenze e Strategie per la Sicurezza AziendaleNIS2 Explained: Cybersecurity Compliance for European ... continua a leggere
-
pgvector in produzione: indici HNSW, IVFFlat e tuning per applicazioni AI con dataset medi
pgvector in produzione: confronto indici HNSW e IVFFlat, tuning parametri, dimensionamento, integrazione con Laravel e pipeline di embedding.
Ho iniziato questa sessione di benchmarking il 23 febbraio 2026 nella mia sandbox di laboratorio su un Hetzner CX42 (8 vCPU Intel Xeon Gold 5412U, 16 GB RAM DDR4, 160 GB NVMe), Debian 12, PostgreSQL 16.2 con l'estensione pgvector 0.7.4, Laravel 12 su PHP 8.3 per l'applicazione di ricerca semantica. Il dataset di partenza era un corpus di 180.432 chunk di documentazione tecnica sintetica (manuali, articoli, specifiche), ognuno trasformato in embedding a 768 dimensioni con il modello Nomic Embed T... continua a leggere