Quantcast
Channel: Planeta Linux Venezuela
Viewing all articles
Browse latest Browse all 714

Ernesto Crespo: Algoritmo de Clasificación con scikit-learn

$
0
0
Continuando con los artículos sobre Inteligencia Artificial con Python.

La serie de artículos sobre Scikit-Learn han sido:

  1. Árbol de decisión hecho con Python (esté tendrá una segunda parte).
  2. Una red neuronal para aprendizaje supervisado usando scikit-learn.
  3. Funciones de activación para un perceptron.
El ejercicio que se explicará será el de algoritmo de clasificación usando scikit-learn por medio del ejemplo de la resolución de la tabla de la verdad de un Or exclusivo (XOR).

Scikit-learn es una librería de Machine Learning para Python que soporta algoritmos de clasificación, regresión y clustering (wikipedia).

A continuación el notebook de jupyter:


Se creará una red neuronal para clasificación

Se usará la tabla de la verdad de XOR
xySalida
000
011
101
110

Para instalar scikit-learn se usa pip
pip3 install scikit-learn
In [4]:
##Se importa Numpy, MLPCCLassifier y KNeighborsClassifier
importnumpyasnp
fromsklearn.neural_networkimportMLPClassifier
fromsklearn.neighborsimportKNeighborsClassifier
In [5]:
#un Arreglo con la tabla de la verdad
# 0 0
# 0 1
# 1 0
# 1 1
xs=np.array([
0,0,
0,1,
1,0,
1,1
]).reshape(4,2)
xs
Out[5]:
array([[0, 0],
[0, 1],
[1, 0],
[1, 1]])
In [6]:
#Se muestra un arreglo con el resultado de hacer un XOR
ys=np.array([0,1,1,0]).reshape(4,)
ys
Out[6]:
array([0, 1, 1, 0])
In [7]:
#Se crea el clasificador con la función de activación relu,con 10k iteraciones y tiene capaz ocultas 4,2
model=MLPClassifier(activation='tanh',max_iter=10000,hidden_layer_sizes=(4,2))
model
Out[7]:
MLPClassifier(activation='tanh', alpha=0.0001, batch_size='auto', beta_1=0.9,
beta_2=0.999, early_stopping=False, epsilon=1e-08,
hidden_layer_sizes=(4, 2), learning_rate='constant',
learning_rate_init=0.001, max_iter=10000, momentum=0.9,
nesterovs_momentum=True, power_t=0.5, random_state=None,
shuffle=True, solver='adam', tol=0.0001, validation_fraction=0.1,
verbose=False, warm_start=False)
In [8]:
#Se entrena la red neuronal pasando los arreglos de entrada y de salida
model.fit(xs,ys)
Out[8]:
MLPClassifier(activation='tanh', alpha=0.0001, batch_size='auto', beta_1=0.9,
beta_2=0.999, early_stopping=False, epsilon=1e-08,
hidden_layer_sizes=(4, 2), learning_rate='constant',
learning_rate_init=0.001, max_iter=10000, momentum=0.9,
nesterovs_momentum=True, power_t=0.5, random_state=None,
shuffle=True, solver='adam', tol=0.0001, validation_fraction=0.1,
verbose=False, warm_start=False)
In [9]:
print('prediccion:',model.predict(xs))# salida 0110
prediccion: [0 1 1 0]
In [10]:
print('Se espera:',np.array([0,1,1,0]))
Se espera: [0 1 1 0]

Otro ejercicio

EntradaSalida
0010
1111
1011
0110
100?
In [11]:
#Se importa de numpy array
fromnumpyimportarray
In [12]:
#Datos de entrada y de salida
datos_entrada=array([[0,0,1],[1,1,1],[1,0,1],[0,1,1]]).reshape(4,3)
datos_salida=array([[0,1,1,0]]).reshape(4,)
print(datos_entrada)
print("-"*4)
print(datos_salida)
[[0 0 1]
[1 1 1]
[1 0 1]
[0 1 1]]
----
[0 1 1 0]
In [13]:
#En este caso se usa KNeighborsClassifier con 2 capaz
KNC=KNeighborsClassifier(n_neighbors=2)
In [14]:
KNC.fit(datos_entrada,datos_salida)
Out[14]:
KNeighborsClassifier(algorithm='auto', leaf_size=30, metric='minkowski',
metric_params=None, n_jobs=1, n_neighbors=2, p=2,
weights='uniform')
In [15]:
#Se predice el valor de 1,0,0 que da como resultado el mismo del artículo anterior.
print(KNC.predict([[1,0,0]]))
[1]
In [16]:
#Se crea la red de nuevo pero ahora con PLPCCLassifier.
#Se crea el clasificador con la función de activación relu,con 10k iteraciones y tiene capaz ocultas 4,2
KNC=MLPClassifier(activation='tanh',max_iter=10000,hidden_layer_sizes=(4,2))
In [17]:
#Se entrena la red neuronal pasando los arreglos de entrada y de salida
KNC.fit(datos_entrada,datos_salida)
Out[17]:
MLPClassifier(activation='tanh', alpha=0.0001, batch_size='auto', beta_1=0.9,
beta_2=0.999, early_stopping=False, epsilon=1e-08,
hidden_layer_sizes=(4, 2), learning_rate='constant',
learning_rate_init=0.001, max_iter=10000, momentum=0.9,
nesterovs_momentum=True, power_t=0.5, random_state=None,
shuffle=True, solver='adam', tol=0.0001, validation_fraction=0.1,
verbose=False, warm_start=False)
In [18]:
#Se predice el valor de 1,0,0 que da como resultado el mismo del artículo anterior.
print(KNC.predict([[1,0,0]]))
[1]


En el siguiente artículo se explicará otro ejemplo de Árbol de decisión usando scikit-learn.

Viewing all articles
Browse latest Browse all 714