The Server-side of Tiled Raster Web Maps: benchmarking and evaluating static raster tile map generation tools for geospatial data processing and visualization
Nylund, Alexander (2023)
Nylund, Alexander
2023
Julkaisun pysyvä osoite on
https://urn.fi/URN:NBN:fi:amk-2023052714971
https://urn.fi/URN:NBN:fi:amk-2023052714971
Tiivistelmä
Denna studie jämför förmågorna och prestandan hos tillgänglig mjukvara med öppen källkod för raster tile kart-generering, som är kapabla att rendera statiska raster tiles. En annan faktor som undersöks är storleken av olika filformat som används på statiska raster tile-servrar. Arbetet jämför också dessa statiska alternativ med dynamiska lösningar som skapar filerna först då de behövs. Med hjälp av hyperfine benchmarking-verktyget testades programmen gdal2tiles, ctb-tile, gdal2tiles_parallel och gdal2tiles_mp i Docker containrar med de mest officiella Docker avbildningarna för respektive program. Deras förmågor och begränsningar diskuterades baserat på den tillgängliga dokumentationen för de olika programmen. Benchmarkingen visade att programmen hade betydligt olika exekveringstider beroende på filformat. Inget program var ständigt bättre än alla andra, med hänsyn till både benchmarkingen och jämförelsen av funktionerna, vilket gjorde resultaten diskutabla. Det viktigaste resultatet av detta arbete är grunden det lägger för ytterligare tester, utvecklingen av benchmarking-miljön och de specifika kommandon som gör det möjligt för någon annan att snabbt reproducera resultaten på sin egen maskin. This study compared the capabilities and performance of available open-source raster tile map generation software alternatives capable of prerendering static raster tiles. Another factor considered was the size effectiveness of the different file formats used on static raster tile servers. This study also briefly compares these static alternatives to dynamically tiled solutions. Using the hyperfine command-line benchmarking tool, the programs gdal2tiles, ctb-tile, gdal2tiles_parallel, and gdal2tiles_mp were tested in Docker containers using the most official docker images for the respective programs. Their capabilities and limitations were discussed based on the available documentation of the different programs. The benchmarking demonstrated that depending on the input and output file formats, the software execution times varied greatly. No program was consistently better than all the others taking into account both the benchmarks and features making the results mostly inconclusive. The key outcome of this study is the foundation it places for further testing, the development of the benchmarking environment and the specific commands that allow someone else to quickly reproduce the
results on their own machine.
results on their own machine.