Versión 0.13.1¶
23 de febrero de 2013
La versión 0.13.1 sólo corrige algunos errores y no añade ninguna nueva funcionalidad.
Registro de cambios¶
Se ha corregido un error de prueba causado por la función
cross_validation.train_test_splitque era interpretada como una prueba por Yaroslav Halchenko.Se ha corregido un error en la reasignación de clusters pequeños en la
cluster.MiniBatchKMeansde Gael Varoquaux.Corregido el valor predeterminado de
gammaendecomposition.KernelPCApor Lars Buitinck.Actualizado joblib a
0.7.0dpor Gael Varoquaux.Corregido el escalado de la desviación en
ensemble.GradientBoostingClassifierde Peter Prettenhofer.Mejor desempate en
multiclass.OneVsOneClassifierpor Andreas Müller.Otras pequeñas mejoras en las pruebas y la documentación.
Personas¶
- Lista de colaboradores de la versión 0.13.1 por número de commits.
5 Robert Marchman
2 Hrishikesh Huilgolkar
1 Bastiaan van den Berg
1 Diego Molla
1 Rafael Cunha de Almeida
1 Rolando Espinoza La fuente
Versión 0.13¶
21 de enero de 2013
Nuevas clases de estimador¶
dummy.DummyClassifierydummy.DummyRegressor, dos predictores independientes de datos por Mathieu Blondel. Útil para comprobar el saneamiento de tus estimadores. Ver Estimadores de prueba en el manual de usuario. Soporte multisalida añadido por Arnaud Joly.decomposition.FactorAnalysis, un transformador que implementa el análisis factorial clásico, por Christian Osendorfer y Alexandre Gramfort. Ver Análisis de factores en el manual de usuario.feature_extraction.FeatureHasher, un transformador que implementa el «truco del hashing» para la extracción rápida y de baja memoria de características a partir de campos de cadenas por Lars Buitinck yfeature_extraction.text.HashingVectorizerpara documentos de texto por Olivier Grisel Ver Hashing de características y Vectorizando un corpus de texto grande con el truco de hashing para la documentación y ejemplos de uso.pipeline.FeatureUnion, un transformador que concatena resultados de varios otros transformadores de Andreas Müller. Ver FeatureUnion: espacios de características compuestas en el manual de usuario.random_projection.GaussianRandomProjection,random_projection.SparseRandomProjectiony la funciónrandom_projection.johnson_lindenstrauss_min_dim. Los dos primeros son transformadores que implementan la matriz de proyección aleatoria gaussiana y dispersa de Olivier Grisel y Arnaud Joly. Ver Proyección aleatoria en el manual de usuario.kernel_approximation.Nystroem, un transformador para aproximar núcleos arbitrarios de Andreas Müller. Ver Método Nystroem para la aproximación de núcleos en el manual de usuario.preprocessing.OneHotEncoder, un transformador que calcula codificaciones binarias de características categóricas, por Andreas Müller. Ver Codificación de características categóricas en el manual de usuario.linear_model.PassiveAggressiveClassifierylinear_model.PassiveAggressiveRegressor, predictores que implementan una eficiente optimización estocástica para modelos lineales de Rob Zinkov y Mathieu Blondel. Ver Algoritmos pasivo-agresivos en el manual de usuario.ensemble.RandomTreesEmbedding, un transformador para crear representaciones dispersas de alta dimensión utilizando conjuntos de árboles totalmente aleatorios de Andreas Müller. Ver Incrustación de Arboles Totalmente Aleatorios en el manual de usuario.manifold.SpectralEmbeddingy la funciónmanifold.spectral_embedding, que implementa la transformación «laplacian eigenmaps» para la reducción de dimensionalidad no lineal de Wei Li. Ver Embedding Espectral en el manual de usuario.isotonic.IsotonicRegressionpor Fabian Pedregosa, Alexandre Gramfort y Nelle Varoquaux,
Registro de cambios¶
metrics.zero_one_loss(antesmetrics.zero_one) tiene ahora la opción de salida normalizada que informa de la fracción de clasificaciones erróneas, en lugar del número bruto de clasificaciones erróneas. Por Kyle Beauchamp.tree.DecisionTreeClassifiery todos los modelos de conjunto derivados soportan ahora la ponderación de muestras, por Noel Dawe y Gilles Louppe.Mejora de la velocidad al utilizar muestras bootstrap en bosques de árboles aleatorios, por Peter Prettenhofer y Gilles Louppe.
Gráficos de dependencia parcial para Gradient Tree Boosting en
ensemble.partial_dependence.partial_dependencepor Peter Prettenhofer. Ver Gráficos de Dependencia Parcial y de Expectativa Condicional Individual para un ejemplo.La tabla de contenidos del sitio web ha sido ampliada por Jaques Grobler.
feature_selection.SelectPercentileahora rompe los empates de forma determinista en lugar de devolver todas las características igualmente clasificadas.feature_selection.SelectKBestyfeature_selection.SelectPercentileson más estables numéricamente, ya que utilizan puntuaciones, en lugar de valores p, para clasificar los resultados. Esto significa que, en ocasiones, pueden seleccionar características diferentes a las anteriores.El ajuste de la regresión de crestas y la clasificación de crestas con el solucionador
sparse_cgya no tiene complejidad de memoria cuadrática, por Lars Buitinck y Fabian Pedregosa.La regresión de crestas y la clasificación de crestas ahora soportan un nuevo solucionador rápido llamado
lsqr, por Mathieu Blondel.Aceleración de
metrics.precision_recall_curvepor Conrad Lee.Se ha añadido soporte para la lectura/escritura de archivos svmlight con atributo de preferencia por pares (qid en el formato de archivo svmlight) en
datasets.dump_svmlight_fileydatasets.load_svmlight_filepor Fabian Pedregosa.Más rápido y robusto
metrics.confusion_matrixy Evaluación del rendimiento del análisis de conglomerados (agrupamiento) por Wei Li.cross_validation.cross_val_scoreahora funciona con núcleos precalculados y matrices de afinidad, por Andreas Müller.Algoritmo LARS hecho más estable numéricamente con heurística para dejar de lado los regresores demasiado correlacionados, así como para detener el camino cuando el ruido numérico se vuelve predominante, por Gael Varoquaux.
Implementación más rápida de
metrics.precision_recall_curvepor Conrad Lee.Nuevo núcleo
metrics.chi2_kernelde Andreas Müller, utilizado a menudo en aplicaciones de visión por computadora.Corrección de un error de larga duración en
naive_bayes.BernoulliNBcorregido por Shaun Jackman.Implementado
predict_probaenmulticlass.OneVsRestClassifier, por Andrew Winterman.Mejora de la coherencia en el refuerzo del gradiente: los estimadores
ensemble.GradientBoostingRegressoryensemble.GradientBoostingClassifierutilizan el estimadortree.DecisionTreeRegressoren lugar de la estructura de datostree._tree.Treede Arnaud Joly.Se ha corregido una excepción de punto flotante en el módulo decision trees, por Seberg.
Fix
metrics.roc_curvefalla cuando y_true tiene sólo una clase por Wei Li.Añade la función
metrics.mean_absolute_errorque calcula el error medio absoluto. Las métricasmetrics.mean_squared_error,metrics.mean_absolute_errorymetrics.r2_scoresoportan la salida múltiple de Arnaud Joly.Corregido el soporte de
class_weightensvm.LinearSVCylinear_model.LogisticRegressionpor Andreas Müller. El significado declass_weightfue invertido, ya que un peso erróneo significaba menos positivos de una clase determinada en versiones anteriores.Mejorar la documentación narrativa y la consistencia en
sklearn.metricspara las métricas de regresión y clasificación por Arnaud Joly.Se ha corregido un error en
sklearn.svm.SVCcuando se utilizan matrices csr con índices no ordenados por Xinfan Meng y Andreas Müller.MiniBatchKMeans: Añade la reasignación aleatoria de los centros de los conglomerados con pequeñas observaciones adjuntas, por Gael Varoquaux.
Resumen de cambios en la API¶
Se ha cambiado el nombre de todas las apariciones de
n_atomsan_componentspor coherencia. Esto se aplica adecomposition.DictionaryLearning,decomposition.MiniBatchDictionaryLearning,decomposition.dict_learning,decomposition.dict_learning_online.Se ha cambiado el nombre de todas las apariciones de
max_itersamax_iterpor coherencia. Esto se aplica asemi_supervised.LabelPropagationysemi_supervised.label_propagation.LabelSpreading.Se ha cambiado el nombre de todas las apariciones de
learn_ratealearning_ratepor coherencia enensemble.BaseGradientBoostingyensemble.GradientBoostingRegressor.El módulo
sklearn.linear_model.sparseha desaparecido. El soporte de matrices dispersas ya estaba integrado en los modelos lineales «normales».sklearn.metrics.mean_square_error, que devolvía incorrectamente el error acumulado, ha sido eliminado. Utilicemean_squared_erroren su lugar.Ya no es posible pasar los parámetros
class_weighta los métodosfit. En su lugar, pásalos a los constructores de estimadores.Los GMM ya no tienen los métodos
decodeyrvs. Utilice en su lugar los métodosscore,predictosample.La opción de ajuste
solveren la regresión y clasificación Ridge está ahora obsoleta y será eliminada en la v0.14. Utiliza la opción del constructor en su lugar.feature_extraction.text.DictVectorizerahora devuelve matrices dispersas en el formato CSR, en lugar de COO.Se ha cambiado el nombre de
kencross_validation.KFoldycross_validation.StratifiedKFoldan_folds, se ha cambiado el nombre den_bootstrapsan_iterencross_validation.Bootstrap.Se ha cambiado el nombre de todas las apariciones de
n_iteracionesan_iterpor coherencia. Esto se aplica across_validation.ShuffleSplit,cross_validation.StratifiedShuffleSplit,utils.randomized_range_finderyutils.randomized_svd.Se ha sustituido
rhoenlinear_model.ElasticNetylinear_model.SGDClassifierporl1_ratio. El parámetrorhotenía diferentes significados; se ha introducidol1_ratiopara evitar confusiones. Tiene el mismo significado que antesrhoenlinear_model.ElasticNety(1-rho)enlinear_model.SGDClassifier.linear_model.LassoLarsylinear_model.Larsahora almacenan una lista de trayectorias en el caso de múltiples objetivos, en lugar de un arreglo de trayectorias.El atributo
gmmdehmm.GMMHMMfue renombrado agmm_para adherirse más estrictamente a la API.cluster.spectral_embeddingwas moved tomanifold.spectral_embedding.Renombrado
eig_tolenmanifold.spectral_embedding,cluster.SpectralClusteringaeigen_tol, renombradomodeaeigen_solver.Se ha cambiado el nombre de
modeenmanifold.spectral_embeddingycluster.SpectralClusteringporeigen_solver.Los atributos
classes_yn_classes_detree.DecisionTreeClassifiery todos los modelos de conjunto derivados son ahora planos en el caso de problemas de una sola salida y anidados en el caso de problemas de salida múltiple.El atributo
estimators_deensemble.gradient_boosting.GradientBoostingRegressoryensemble.gradient_boosting.GradientBoostingClassifieres ahora una matriz de :class:”tree.DecisionTreeRegressor”.Se ha cambiado el nombre de
chunk_sizeabatch_sizeendecomposition.MiniBatchDictionaryLearningydecomposition.MiniBatchSparsePCApor coherencia.svm.SVCysvm.NuSVCproporcionan ahora un atributoclasses_y soportan dtypes arbitrarios para las etiquetasy. Además, el tipo de datos devuelto porpredictrefleja ahora el tipo de datos deydurantefit(antes eranp.float).Se ha cambiado el tamaño de la prueba por defecto en
cross_validation.train_test_splita None, se ha añadido la posibilidad de inferir eltest_sizea partir deltrain_sizeencross_validation.ShuffleSplitycross_validation.StratifiedShuffleSplit.Se ha cambiado el nombre de la función
sklearn.metrics.zero_oneasklearn.metrics.zero_one_loss. Tenga en cuenta que el comportamiento por defecto ensklearn.metrics.zero_one_losses diferente al desklearn.metrics.zero_one:normalize=Falsese cambia anormalize=True.Se ha cambiado el nombre de la función
metrics.zero_one_scoreametrics.accuracy_score.datasets.make_circlestiene ahora el mismo número de puntos interiores y exteriores.En los clasificadores Naive Bayes, el parámetro
class_priorse ha movido defita__init__.
Personas¶
Lista de colaboradores de la versión 0.13.1 por número de commits.
364 Andreas Müller
143 Arnaud Joly
131 Gael Varoquaux
117 Mathieu Blondel
108 Lars Buitinck
106 Wei Li
101 Olivier Grisel
65 Vlad Niculae
30 Rob Zinkov
19 Aymeric Masurelle
18 Andrew Winterman
17 Nelle Varoquaux
14 Daniel Nouri
13 syhw
10 Corey Lynch
10 Kyle Beauchamp
9 Brian Cheung
9 Immanuel Bayer
9 mr.Shu
8 Conrad Lee
7 Tadej Janež
6 Brian Cajes
6 Michael
6 Noel Dawe
6 Tiago Nunes
6 cow
5 Anze
5 Shiqiao Du
4 Christian Jauvin
4 Jacques Kvam
4 Richard T. Guy
3 Alexandre Abraham
3 Doug Coleman
3 Scott Dickerson
2 ApproximateIdentity
2 John Benediktsson
2 Mark Veronda
2 Matti Lyra
2 Mikhail Korobov
2 Xinfan Meng
1 Alejandro Weinstein
1 Christoph Deil
1 Eugene Nizhibitsky
1 Kenneth C. Arnold
1 Luis Pedro Coelho
1 Miroslav Batchkarov
1 Pavel
1 Sebastian Berg
1 Shaun Jackman
1 Subhodeep Moitra
1 bob
1 dengemann
1 emanuele
1 x006