Interpretabilidade na classificação de doenças em plantas de café por meio de imagens e aprendizado profundo
DISSERTAÇÃO
Português
T/UNICAMP M366i
[Interpretability in disease classification in coffee plants through images and deep learning]
Campinas, SP : [s.n.], 2023.
1 recurso online (65 p.) : il., digital, arquivo PDF.
Orientador: Juliana Aparecida Fracarolli
Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Agrícola
Resumo: Importante para garantir a segurança alimentar e a sustentabilidade das culturas agrícolas, a detecção rápida de doenças em plantas tem sido tópico de pesquisas com aplicação de aprendizado profundo. A intenção do aprendizado de máquina é de auxiliar e até mesmo substituir a tarefa de...
Resumo: Importante para garantir a segurança alimentar e a sustentabilidade das culturas agrícolas, a detecção rápida de doenças em plantas tem sido tópico de pesquisas com aplicação de aprendizado profundo. A intenção do aprendizado de máquina é de auxiliar e até mesmo substituir a tarefa de detecção feita de forma visual, o que demanda muito esforço, e em muitos casos, pode apresentar gargalos devido às pessoas que realizam a tarefa não terem o conhecimento necessário para detectar a doença e identificar sua causa. Contudo, a busca por altas acurácias no desenvolvimento de modelos de aprendizado profundo gera soluções cada vez mais complexas que nem sempre promovem o entendimento humano de suas tomadas de decisão. Para isso, técnicas de interpretabilidade são adicionadas com o objetivo de trazer informações que viabilizem a interpretação dos resultados. Entender a lógica e os recursos usados nas decisões dos modelos é importante não só para garantir a verificação e validação dos resultados, como viabilizar a melhoria do algoritmo e dos dados de treinamento e extração de conhecimento. O projeto aplicou duas técnicas de interpretabilidade em uma rede neural convolucional (CNN) VGG16 desenvolvida e treinada para a classificação de imagens de doenças em plantas. Ao aplicar o SHAP (SHapley Additive exPlanations) e LIME (Local Interpretable Model-Agnostic Explanations) na modelagem de doenças na cultura do café foi possível válidas o uso das técnicas para essa aplicação e proporcionar a visualização dos principais aspectos, características e variáveis que contribuem para a classificação das quatro doenças ocasionadas por fungos da cultura, a Ferrugem (Hemileia vastatrix), a Phoma (Phoma spp e Ascochyta spp), a Mantegosa (Colletotrichum gloeosporioides) e a Cercosporiose (Cercospora coffeicola). Além de identificar partes do objeto que mais impactam na decisão do modelo, a interpretabilidade aplicada às redes de detecção de doenças em plantas de culturas agrícolas pode promover informações importantes para avanços na classificação e automatização desse processo na rotina do agronegócio
Abstract: Important for ensuring food security and sustainability of agricultural crops, rapid detection of diseases in plants using deep learning has been a topic of research. The intention of machine learning is to assist and even replace the detection task carried out visually, which requires a...
Abstract: Important for ensuring food security and sustainability of agricultural crops, rapid detection of diseases in plants using deep learning has been a topic of research. The intention of machine learning is to assist and even replace the detection task carried out visually, which requires a lot of effort, and in many cases, can present bottlenecks due to the people carrying out the task not having the necessary knowledge to detect the disease and identifying its cause. However, the search for high accuracies in the development of deep learning models generates increasingly complex solutions that do not always promote human understanding of decision-making. To this end, interpretability techniques are added with the aim of providing information that enables the interpretation of results. Understanding the logic and resources used in model decisions is important not only to ensure the verification and validation of results, but also to enable the improvement of the algorithm and training data and knowledge extraction. The project applied two interpretability techniques to a VGG16 convolutional neural network (CNN) developed and trained to classify plant disease images. By applying SHAP (SHapley Additive exPlanations) and LIME (Local Interpretable Model-Agnostic Explanations) in modeling diseases in coffee crops, it was possible to validate the use of techniques for this application and provide visualization of the main aspects, characteristics and variables that contribute for the classification of the four diseases caused by crop fungi, Rust (Hemileia uvatrix), Phoma (Phoma spp and Ascochyta spp), Mantegosa (Colletotrichum gloeosporioides) and Cercosporiosis (Cercospora coffeicola). In addition to identifying parts of the object that most impact the model's decision, interpretability applied to disease detection networks in agricultural crop plants can provide important information for advances in the classification and automation of this process in agribusines
Aberto