wip: collector section
All checks were successful
Build LaTeX Document / build_latex (push) Successful in 3m7s

This commit is contained in:
2025-03-20 22:06:14 +01:00
parent 29cb7105af
commit 0c5b36fb61
2 changed files with 10 additions and 1 deletions

View File

@@ -880,13 +880,22 @@ Gli script fanno utilizzo della \footnote{CLI: sinonimo di Command-line interfac
Rispetto a quelli originali, li abbiamo modificati per far utilizzo delle varibili d'ambiente per la configurazione del nostro sistema di test, e per sostituire Selenium Grid, con l'immagine Docker monolitica standalone che abbiamo creato.\cite{githubGitHubHetznercloudcli} \cite{framagitFramasoftPeerTube}
\vfill \break
\section{Architettura del sistema di test}
Finora abbiamo descritto le tecnologie utilizzate alla base per creare il nostro sistema di test, senza però piegare effettivamente come queste vengono integrate e utilizzate insieme per creare un sistema di test automatizzato.
Introduciamo quindi l'ultimo pezzo necessario per far funzionare il tutto, ovvero il \textbf{\textit{collector}}, un'applicazione Python che si occupa di fare \footnote{Il data scraping è una tecnica in cui un programma informatico estrae dati da un output leggibile dall'uomo generato da un altro programma.} \textbf{scraping} delle metriche di PeerTube, di raccogliere le metriche WebRTC tramite l'estensione Chromium, e di inviare il tutto a Telegraf per l'elaborazione e l'invio al database.
TODO
\begin{figure}[H]
\centering
\includegraphics[width=\textwidth]{images/mermaid-diagram-2025-03-20-215704.png}
\caption{Architettura del collector.}
\end{figure}
\vfill\break
Ecco quindi un diagramma finale dell'architettura del nostro sistema: