wip: collector section
All checks were successful
Build LaTeX Document / build_latex (push) Successful in 3m7s

This commit is contained in:
2025-03-20 22:06:14 +01:00
parent 29cb7105af
commit 0c5b36fb61
2 changed files with 10 additions and 1 deletions

View File

@@ -880,13 +880,22 @@ Gli script fanno utilizzo della \footnote{CLI: sinonimo di Command-line interfac
Rispetto a quelli originali, li abbiamo modificati per far utilizzo delle varibili d'ambiente per la configurazione del nostro sistema di test, e per sostituire Selenium Grid, con l'immagine Docker monolitica standalone che abbiamo creato.\cite{githubGitHubHetznercloudcli} \cite{framagitFramasoftPeerTube} Rispetto a quelli originali, li abbiamo modificati per far utilizzo delle varibili d'ambiente per la configurazione del nostro sistema di test, e per sostituire Selenium Grid, con l'immagine Docker monolitica standalone che abbiamo creato.\cite{githubGitHubHetznercloudcli} \cite{framagitFramasoftPeerTube}
\vfill \break
\section{Architettura del sistema di test} \section{Architettura del sistema di test}
Finora abbiamo descritto le tecnologie utilizzate alla base per creare il nostro sistema di test, senza però piegare effettivamente come queste vengono integrate e utilizzate insieme per creare un sistema di test automatizzato. Finora abbiamo descritto le tecnologie utilizzate alla base per creare il nostro sistema di test, senza però piegare effettivamente come queste vengono integrate e utilizzate insieme per creare un sistema di test automatizzato.
Introduciamo quindi l'ultimo pezzo necessario per far funzionare il tutto, ovvero il \textbf{\textit{collector}}, un'applicazione Python che si occupa di fare \footnote{Il data scraping è una tecnica in cui un programma informatico estrae dati da un output leggibile dall'uomo generato da un altro programma.} \textbf{scraping} delle metriche di PeerTube, di raccogliere le metriche WebRTC tramite l'estensione Chromium, e di inviare il tutto a Telegraf per l'elaborazione e l'invio al database. Introduciamo quindi l'ultimo pezzo necessario per far funzionare il tutto, ovvero il \textbf{\textit{collector}}, un'applicazione Python che si occupa di fare \footnote{Il data scraping è una tecnica in cui un programma informatico estrae dati da un output leggibile dall'uomo generato da un altro programma.} \textbf{scraping} delle metriche di PeerTube, di raccogliere le metriche WebRTC tramite l'estensione Chromium, e di inviare il tutto a Telegraf per l'elaborazione e l'invio al database.
TODO \begin{figure}[H]
\centering
\includegraphics[width=\textwidth]{images/mermaid-diagram-2025-03-20-215704.png}
\caption{Architettura del collector.}
\end{figure}
\vfill\break
Ecco quindi un diagramma finale dell'architettura del nostro sistema: Ecco quindi un diagramma finale dell'architettura del nostro sistema:

Binary file not shown.

After

Width:  |  Height:  |  Size: 47 KiB