SVM |
É útil para problemas de classificação de dois grupos. A ideia é encontrar uma função chamada hiperplano a partir da resolução de um sistema linear construído a partir das várias lições do subconjunto de treinamento. 4040. Cortes C, Vapnik V. Support-vector networks. Mach Learn. 1995;20:273-97. Esse hiperplano é utilizado para agrupar as lições do subconjunto de teste em dois grupos disjuntos. |
Supervisionado |
NB |
Foi inspirado nos estudos do reverendo Bayes sobre a probabilidade condicional. 4141. Bayes T. An essay towards solving a problem in the doctrine of chances. By the late Rev. Mr. Bayes, F. R. S. communicated by Mr. Price, in a letter to John Canton, A. M. F. R. S. Philos Trans R Soc Lond. 1763;53:370-418. Essas probabilidades são usadas para identificar a categoria (de um total de n possível) a que uma lição específica pertence. 4242. Webb GI, Boughton JR, Wang Z. Not so naive bayes: aggregating one-dependence estimators. Mach Learn. 2005;58(1):5-24.
|
Supervisionado |
KNN |
Diz-se que uma norma de vetor é uma função matemática, que satisfaz propriedades específicas, e associa um vetor a um valor maior ou igual a zero. 4343. Watkins, DS. Fundamentals of matrix computations. 2th ed. New York: Wiley-Interscience; 2002. A norma da diferença entre dois vetores é a distância entre eles. O KNN utiliza uma norma para calcular a distância entre todos os vetores (lições) que compõem o banco de dados. Então, para cada vetor do banco de dados, os vetores k mais próximos a ele são determinados. A inclusão em um determinado grupo é obtida a partir de um sistema de votação majoritária entre os vizinhos. 4444. Cover T, Hart P. (1967). Nearest neighbor pattern classification. IEEE Trans Inf Theory. 1967;13(1):21-7.,4545. Fix, E., Hodges, J.L. Discriminatory analysis, nonparametric discrimination: Consistency properties. Technical Report 4, USAF School of Aviation Medicine, Randolph Field, Texas, 1951.
|
Supervisionado |
AG |
Algoritmos inspirados na evolução biológica das espécies, nos quais cada possível candidato para solucionar o problema é modelado como um cromossomo constituído por um conjunto de genes, que durante a execução do algoritmo é submetido a operações de cruzamento e mutação para obter melhor soluções que as atuais. 4646. Holland JH. Adaptation in natural and artificial systems. 2th ed. Cambridge, MA: MIT Press; 1992. Dessa forma, eles permitem que um banco de dados seja separado, por exemplo, em dois grupos distintos – que possuem ou não uma característica específica. |
Supervisionado |
RF |
Esse método é baseado na construção de várias árvores de decisão. O primeiro passo é obter várias amostras aleatórias (com reposição) de lições para criar outros bancos de dados, um processo chamado “bootstrapping”. Cada um desses novos bancos de dados dará origem a uma árvore de decisão, obtida de forma iterativa, a partir de um subconjunto de variáveis (características). Após a construção de todas as árvores, uma nova lição no banco de dados deve ser alocada ao grupo que tem o maior número de árvores de decisão, mostrando que ele pertence a esse grupo (maioria dos votos). 4747. Breiman L. Random forests. Mach Learn. 2001;45(1):5-32.,4848. Ho TK. Random decision forests. In: Proceedings of the 3rd International Conference on Document Analysis and Recognition; 1995 Aug 14-16; Montreal. Washington, DC: IEEE Computer Society; 1995. p.278-82.
|
Supervisionado |
K-means |
Permite particionar um banco de dados em k grupos com características semelhantes. Para isso, é necessário atualizar, de maneira iterativa, um conjunto de vetores, chamados centroides de referência de cada grupo e calcular a distância de cada lição para cada um. Uma lição é sempre alocada ao centroide para o qual ela tem a menor distância. O gráfico de cotovelo é geralmente utilizado para determinar o número ideal de grupos a serem separados do banco de dados. 4949. MacQueen JB. Some Methods for classification and Analysis of Multivariate Observations. Proc. Fifth Berkeley Symp. on Math. Statist. and Prob. 1967;1:281-97.
|
Não supervisionado |
ANN |
Inspirado nos sistemas nervosos biológicos, é utilizada uma estrutura chamada gráfico – um conjunto de nós e bordas – em que os nós são estratificados e conectados por bordas com valores, que representam um peso atribuído a uma determinada conexão. A ideia é que, a partir de um conjunto de entradas, esses pesos sejam utilizados corretamente para produzir uma saída. Várias arquiteturas foram propostas para redes neurais, desde as mais simples, como a perceptron, até as mais sofisticadas, como a função de base radial, redes convolucionais e aprendizado profundo. No aprendizado profundo, além das camadas de entrada e saída, existem camadas ocultas que aumentam significativamente o número de pesos a serem atualizados e geralmente exigem grandes esforços computacionais. A rede convolucional é um tipo de aprendizado profundo inspirada no córtex visual de animais que tem um papel importante na análise de imagens. Autoencoders e redes neurais de Kohonen são exemplos de aprendizado não supervisionado. 11. Goodfellow I, Bengio Y, Courville A. Deep Learning. Cambridge: MIT Press; 2016.,77. Dilsizian ME, Siegel EL. Machine meets biology: a primer on artificial intelligence in cardiology and cardiac imaging. Curr Cardiol Rep. 2018;20(12):139.,5050. McCulloch WS, Pitts W. A logical calculus of ideas immanent in nervous activity. Bull Math Biophys. 1943;5(4):115-33.
51. Rosenblatt F. The perceptron: a probabilistic model for information storage and organization in the brain. Psychol Rev. 1958;65(6):386-408.-5252. Broomhead DS, Lowe D. Multivariable functional interpolation and adaptive networks. Complex Syst. 1988;2:321-55.
|
Não supervisionado ou Supervisionado |
GB |
É um método baseado em árvore que utiliza gradientes, vetores relacionados à direção do aumento máximo em uma função matemática, para produzir árvores de decisão sequenciais a serem combinadas para aprimorar a previsão. Variantes desta abordagem incluem o Stochastic Gradient Descent que incorpora uma sub-amostra aleatória para GB. 5353. Friedman JH. Greedy function approximation: a gradient boosting machine. Ann Stat. 2001;29(5):1189-232.,5454. Friedman JH. Stochastic gradient boosting. Comput. Stat. Data Anal. 2002;38(4):367-78.
|
Supervisionado |