Big data and artificial intelligence applied to foundations
Autor: | Campos, Darym Júnior Ferrari de |
---|---|
Přispěvatelé: | Ozelim, Luan Carlos de Sena Monteiro, Carvalho, José Camapum de |
Jazyk: | portugalština |
Rok vydání: | 2022 |
Předmět: | |
Zdroj: | Repositório Institucional da UnB Universidade de Brasília (UnB) instacron:UNB |
Popis: | Tese (doutorado) — Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Civil e Ambiental, 2022. A engenharia de fundações passa por uma constante evolução em busca de novos equipamentos e elementos de fundação que possam gerar maior produtividade e estarem sujeitos a um maior controle de qualidade durante sua execução. No mesmo sentido, é natural o esforço pela busca de novas ferramentas computacionais e ideias que possam potencializar a qualidade dos dados e dos resultados gerados em campo. Dentro desse propósito, o foco da presente tese foi dado ao tipo de estaca mais utilizada do Brasil, a hélice contínua monitorada (EHC). Para cada perfuração, pode-se aferir os níveis de energia necessários para a execução das estacas, o que fornece, quase que instantaneamente, dados relevantes para o entendimento do desempenho das estacas quando as variações individuais desse gasto energético são interpretadas. Atualmente, a era Big Data é realidade, o que significa que todo profissional capacitado deve tentar aproveitar os dados disponíveis para obter indiretamente novas informações. Os estudos aqui vão utilizar a combinação de algoritmos de inteligência artificial (IA) e o fluxo de trabalho analítico de Big Data para interpretar como a energia necessária para a execução desse tipo de fundação pode ser utilizada como uma variável capaz de representar o desempenho real em termos de carga versus recalque, que representa uma das informações mais desejadas para viabilizar o sucesso das obras. No decorrer da tese, elaboraram-se modelos de IA a partir da combinação de dados experimentais coletados de obras reais e a partir da utilização de técnicas de aumento de dados para geração de dados sintéticos. Esses dados sintéticos se fizeram necessários pois a qualidade e quantidade dos dados reais se mostrou insuficiente para o treino de modelos robustos. Para gerar os dados sintéticos, simulações numéricas foram calibradas para reproduzir fielmente dados de campo. Previamente à calibração do modelo de elementos finitos, foi realizado um estudo gradativo e robusto de malha e convergência. Uma das características desse modelo é que foi usada a sub-rotina USDFLD do software Abaqus® para reprodução da estratigrafia de camadas irregulares do local. Para a calibração, foram geradas 310 combinações dos parâmetros de entrada do modelo por meio da técnica do Hipercubo Latino, de forma a buscar aquele conjunto de parâmetros que gerava curvas carga versus recalque mais próxima àquelas efetivamente observadas em três estacas reais. Posteriormente, com o modelo calibrado, um total de 134 estacas tiveram a combinação de energia de execução aferida e curva carga versus recalque disponibilizada, a partir das quais foram elaborados dois modelos de IA baseado na aprendizagem de máquina, utilizando o tipo Regressão de Vetor Suporte. Mesmo considerando que os dados seguiram o modelo de Chin-Kondner, observouse que, quando comparados às curvas experimentais, as curvas carga versus recalque geradas pelos modelos apresentaram em vários casos ajustes altamente aderentes, considerando para este procedimento metodológico resultados satisfatórios. Destaca-se que a qualidade e a quantidade de dados são fundamentais para aumentar o poder de confiabilidade e predição do modelo. Além disso, o modelo e o fluxo metodológico proposto revelam ser possível desempenhar uma análise individual das estacas, o que tende a aumentar a qualidade dos projetos e a confiabilidade dos estaqueamentos monitorados. Foundation engineering is constantly evolving in search of new equipment and foundation elements that can generate greater productivity and be subject to greater quality control during execution. In the same sense, it is natural the effort to search for new computational tools and ideas that can enhance the quality of data and results generated in the field. Within this purpose, the focus of this thesis will be given to the most used type of pile in Brazil, the monitored continuous flight auger pile (CFAP). For each drilling, it is possible to measure the energy levels required for the execution of the piles, which provides, almost instantly, relevant data to understand the performance of the piles when the individual variations of this energy expenditure are interpreted. Today, the Big Data era is already a reality, which means that every trained professional should try to leverage the available data to obtain new information indirectly. The studies here will use the combination of Artificial Intelligence (AI) algorithms and the analytical workflow of Big Data to interpret how the energy required to execute this type of foundation can be used as a variable capable of representing the actual performance in terms of load-settlement curve, which represents one of the most desired information to enable the success of the construction sites. During the thesis, AI models were elaborated from the combination of experimental data collected from real construction sites and from the use of data augmentation techniques to generate synthetic data. This synthetic data was necessary because the quality and quantity of the real data was insufficient to train robust models. To generate the synthetic data, numerical simulations were calibrated to faithfully reproduce field data. Prior to calibrating the FEM model, a gradual robust meshing and convergence study was performed. One of the features of this model is that the USDFLD subroutine of the Abaqus® software was used to reproduce the irregular layer stratigraphy of the site. For calibration, 310 combinations of model input parameters were generated through the Latin Hypercube Sampling (LHS) technique, in order to find the set of parameters that generated the load-settlement curves closest to those actually observed in three real piles. Subsequently, with the calibrated model, a total of 134 piles had the combination of execution energy and load-settlement curve available, from which two AI models were developed based on machine learning, using the Support Vector Regressor (SVR) type. Even considering that the data followed the Chin-Kondner model, it was observed that, when compared to the experimental curves, the load-settlement curves generated by the models presented in several cases highly adherent fits, considering for this methodological procedure satisfactory results. It is emphasized that the quality and quantity of data are fundamental to increase the models reliability and prediction power. In addition, the model and the methodological flow proposed reveal that it is possible to perform an individual analysis of the piles, which tends to increase the quality of the projects and the reliability of the piles monitored. |
Databáze: | OpenAIRE |
Externí odkaz: |