🛑 Stop words
Las "stop words" son palabras que no aportan valor semántico relevante en el análisis de texto, por lo que se eliminan para mejorar la precisión de los algoritmos de procesamiento de lenguaje natural (PLN).
Estas incluyen:
- Artículos: el, la, los
- Pronombres: yo, tú, él
- Preposiciones: a, ante, bajo
- Conjunciones: y, o, pero
- Adverbios: aquí, allí, ahora
- Verbos auxiliares: ser, estar, haber
- Otros: que, como, por
📚 ¿Cómo usar stop words en Python?
Para usar Stop Words en Python, necesitamos usar la libreria que ya hemos estado hablando, nltk
.
Teniendo ya instalada la librería, podemos hacer lo siguiente:
import nltk
nltk.download('stopwords')
from nltk.corpus import stopwords
Ahora, podemos usar las stop words en nuestro análisis de texto:
stop_words = set(stopwords.words('spanish'))
print(stop_words)
En este caso, estamos utilizando las stop words en español, pero podemos cambiar el idioma a inglés, francés, alemán, entre otros.
📖 ¿Cómo eliminar Stop Words de un texto?
Para eliminar las stop words de un texto, podemos hacer lo siguiente:
from nltk.tokenize import word_tokenize
words=nltk.word_tokenize("A Itaquito le gustan los gatos")
no_stop_words = [word for word in words if word.lower() not in stop_words]
En este caso, estamos eliminando las stop words de la frase "A Itaquito le gustan los gatos".
El texto resultante será:
['Itaquito', 'gustan', 'gatos']
📝 Conclusión
En resumen, las "stop words" son palabras comunes que no agregan valor semántico en el análisis de texto y, por lo tanto, se eliminan para mejorar la eficiencia de los algoritmos de procesamiento de lenguaje natural. Usar librerías como nltk nos permite identificar y remover estas palabras fácilmente en diferentes idiomas. Esto optimiza el análisis de datos textuales, ya que reduce el ruido y permite que los modelos se concentren en las palabras que realmente importan. Implementar esta técnica es esencial para obtener resultados más precisos y relevantes en proyectos de PLN.