Database Benchmark: Unterschied zwischen den Versionen

Aus Geoinformation HSR
Wechseln zu: Navigation, Suche
(About Database Benchmarking...)
Zeile 19: Zeile 19:
 
* Query-Resultsets, die ein Tupel liefen und solche die über die Hälfte der DB zurückliefern.
 
* Query-Resultsets, die ein Tupel liefen und solche die über die Hälfte der DB zurückliefern.
 
* Single User versus Multi-user.
 
* Single User versus Multi-user.
 +
 +
Software (Scritps) zur Automatisierung von Benchmarks:
 +
* [http://wiki.hsr.ch/Datenbanken/files/db-benchmark_mott.zip PostgreSQL hstore Benchmark] - Benchmarking in Python by Michel Ott, 2011.
 +
* [http://www.postgresql.org/docs/devel/static/pgbench.html pgbench] - Benchmark tool for PostgreSQL.
  
 
== Weblinks ==
 
== Weblinks ==

Version vom 18. Dezember 2011, 04:17 Uhr

See also:

About Database Benchmarking...

Existing DB-Benchmarks:

  • TPC-C for OLTP benchmarks.
  • TPC-R & TPC-H (formerly TPC-DS) for data warehouse & decision support systems.
  • TPC-W benchmark for Web-based systems.
  • "The Engineering Database Benchmark".
  • Open Source Database Benchmark
  • PolePosition open source database benchmark [1]

Guidelines

Man unterscheide:

  • Kalt- und Warmstart, und beim Warmstart ist der Unterschied zwischen der 1. Query und der 2. Query besonders interessant (Caching der DB selber).
  • Equality und Range Queries.
  • Query-Resultsets, die ein Tupel liefen und solche die über die Hälfte der DB zurückliefern.
  • Single User versus Multi-user.

Software (Scritps) zur Automatisierung von Benchmarks:

Weblinks