NameError Traceback (most recent call last)
C:\Users\FABIAN~1\AppData\Local\Temp/ipykernel_17232/1681503347.py in
1 count_classes = pd.value_counts(df[‘Falla’], sort = True)
2 count_classes.plot(kind = ‘bar’, rot=0)
—-> 3 plt.xticks(range(2), LABELS)
4 plt.title(«numero de muestras por falla»)
5 plt.xlabel(«Falla»)
NameError: name ‘LABELS’ is not defined
]]>Hola Catalina, Si te fijas, cuando entrenamos por primera vez, usa un subconjunto llamado X_Train, en cambio luego para usarlo por completo, tomamos todas las muestras, en la variable X. Por eso hace el fit nuevamente y recrea el modelo.
Saludos!
we create an instance of Neighbours Classifier and fit the data.
clf = KNeighborsClassifier(n_neighbors, weights=’distance’)
clf.fit(X, y)
El modelo que se genera con
knn = KNeighborsClassifier(n_neighbors)
knn.fit(X_train, y_train)
No se usa mas? no es con este con el que se predice? ahi es donde me perdi, o en clf utiliza el mismo fit generado para luego predecir?
]]>pero ya encontre el error. Como no copie el codigo del grafico porque tengo multiples variables, entonces no estaba definida la funcion. Seleccione del graficos las lineas a1 a 7 y asi logre impriir uego el resultado
]]>Hola Brian, te cuento que no esta disponible el archivo
]]>Hola, gracias por escribir.
Luego de entrenar con fit al modelo que en este caso está en la variable llamada “clf” puedes guardarlo en un archivo en formato pickle de python y cuando lo necesitas en el futuro lo lees de ese archivo y puedes seguir haciendo predict sobre nuevos inputs.
Saludos!
Hola Nestor, gracias por escribir!
Te cuento que este algoritmo trabaja en memoria y mientras “vive” utilizará toda la ram que necesita. Si tienes un dataset muy bestial ocupará mucha memoria. Para el ejemplo de mi notebook del artículo no consume mucha RAM porque son pocos registros, si con la gráfica te consume mucho debe ser un error de programación por ejemplo que quede un bucle ejecutando continuamente ó que tengas una versión con bugs de la librería gráfica. SI no, es imposible que llegue a 8GB! ni mucho menos!
Saludos, cualquier cosa me dices!