¿Qué es el algoritmo Naive Bayes?
En otras palabras, ninguna variable de atributo representa una gran proporción del resultado de la decisión, y ninguna variable de atributo representa una pequeña proporción del resultado de la decisión. Aunque este método simplificado reduce en cierta medida el efecto de clasificación del algoritmo de clasificación bayesiano, simplifica enormemente la complejidad del método bayesiano en escenarios de aplicación prácticos.
La clasificación Naive Bayes (NBC) es un método basado en el teorema de Bayes y que supone que las condiciones de las características son independientes entre sí. Primero, la distribución de probabilidad conjunta desde la entrada hasta la salida se aprende a través del conjunto de entrenamiento dado, suponiendo que las palabras características son independientes. Luego, según el modelo aprendido, ingrese X y encuentre la salida Y que maximice la probabilidad posterior.
Contribución personal:
Bayes estudia principalmente la teoría de la probabilidad en matemáticas. Primero aplicó el razonamiento inductivo a la teoría básica de la teoría de la probabilidad, estableció la teoría estadística bayesiana e hizo contribuciones en funciones de decisión estadística, inferencia estadística y estimación estadística. En 1763 se publicó su trabajo en esta área, que ocupa una posición importante en la teoría de la probabilidad y la estadística matemática modernas. Otra obra de Bayes, "Introducción a la teoría del azar", se publicó en 1758. Muchos de los términos adoptados por Bayes todavía se utilizan en la actualidad.
Su principal aportación al razonamiento estadístico es utilizar el concepto de “probabilidad inversa” y proponerlo como método de razonamiento universal. El teorema de Bayes es originalmente un teorema de la teoría de la probabilidad, que puede expresarse mediante una fórmula matemática, que es la famosa fórmula de Bayes.