Auto2Fit 3.0

Licenza: Prova gratuita ‎Dimensioni del file: N/A
‎Valutazione utenti: 3.8/5 - ‎6 ‎Voti

Circa Auto2Fit

Auto2Fit è uno strumento di rivoluzione e batte tutti gli altri simliar nell'area della regressione non lineare! Quasi tutti i pacchetti software di analisi dei dati (SPSS, SAS, Statistical, Origin Pro, DataFit, Stato o Systat) hanno bisogno che gli utenti finali forniscano / congetturano i valori iniziali di avvio e i successi del calcolo di regressione non lineare dipendono chiaramente da quei dati indovinati. Sfortunatamente, per la maggior parte delle persone, le ipotesi di valori di inizio adeguati sono un incubo. Con gli algoritmi di optimation unici, robusti e ad alta efficienza di "Global Levenberg-Marquardt" e "Global BFGS", proposti di recente, Auto2Fit non richiede molto tempo per richiedere agli utenti finali di fornire/indovinare i valori iniziali di avvio (ma con quelli casuali gratuiti), le prestazioni, tuttavia, sono molto migliori di qualsiasi altra. Auto2Fit si è trasformato in il migliore per l'analisi della regerssion non lineare al giorno d'oggi. Auto2Fit è anche uno strumento flessibile, versatile e più facile da usare nei settori dell'ottimizzazione delle funzioni, della risoluzione delle equazioni, della stima dei parametri, dei problemi combinati (come il TSP) e del disegno del grafico. Algoritmi: In Auto2Fit sono stati integrati diversi algoritmi di ottimizzazione: 1. Algoritmo genetico (GA): sia la modalità di codifica/decodifica che la modalità basata sul valore reale, sei tipi di crossover e sette tipi di selezione 2. Ottimizzazione dello sciame di particelle (PSO): sei schemi (2 standard e 4 nuovi) 3. Evoluzione differenziale (DE): dieci schemi (5 nuovi) e quattro rubts (3 nuovi) 4. Ottimizzazione massima ereditarie (MIO): quattro schemi 5. Ricottura simulata (SA) 6. Metodo Simplex (SM) 7. Levenberg-Marquardt (LM): standard LM e Global LM 8. Quasi-Newton (BFGS): BFGS standard e BFGS globale 9. Auto-organizzazione degli algoritmi di migrazione (SOMA) 10. Metodo coniugato-gradiente (CGM) 11. Ottimizzazione Powell (OP) 12 Ricerca Tabu (TS)