summaryrefslogtreecommitdiff
path: root/doc/documentation.txt
diff options
context:
space:
mode:
authorJan Klemkow <j.klemkow@wemelug.de>2013-02-01 20:37:06 +0100
committerJan Klemkow <j.klemkow@wemelug.de>2013-02-01 20:37:06 +0100
commit04dcc1289a6f766a2d1725e00124624f17d4f01d (patch)
tree4facdb9e0fa83f0c81e23e9e8056f5f70d43fa15 /doc/documentation.txt
parent81ffe5042ab0005edfa9eb8c8b6fa03ecbfa4601 (diff)
downloadadvtime-04dcc1289a6f766a2d1725e00124624f17d4f01d.tar.gz
advtime-04dcc1289a6f766a2d1725e00124624f17d4f01d.tar.bz2
advtime-04dcc1289a6f766a2d1725e00124624f17d4f01d.zip
Add graph and text into documentation.
Diffstat (limited to 'doc/documentation.txt')
-rw-r--r--doc/documentation.txt22
1 files changed, 21 insertions, 1 deletions
diff --git a/doc/documentation.txt b/doc/documentation.txt
index 5e58ade..4538ee5 100644
--- a/doc/documentation.txt
+++ b/doc/documentation.txt
@@ -1,6 +1,7 @@
= Automatisierte Erkennung von Werbebloecken
:author: Jan Klemkow, Benjamin Franzke
:lang: de
+:imagesdir: image
== Einleitung
@@ -84,6 +85,15 @@ angefragte.
Zur Erkennung von Schnitten in Videoaufzeichnungen wurde im Rahmen dieser
Arbeit ein verfahren entwickelt.
+
+Der erste Ansatz bestand in der Annahme, dass sich die durchschnittliche
+Hellichkeit des Bildes wahrend einer Szene nicht stark veraender.
+Aus diesem Grund wurde ein Algorithmus implementiert, welche ueber jeden
+Frame die durchschnittlichen Y-Wert berechnet.
+
+.Durchschnittlicher Y-Wert ueber das Heute-100sec-Video
+image::avg.svg[]
+
Dabei wird eine Video Frame fuer Frame durchlaufen und zwischen zwei aufeinander
folgender Frames eine durchschnittliche Pixeldifferenz berechnet.
Die Pixeldifferenz wird nur anhand des Y-Kanals berechnet.
@@ -91,7 +101,7 @@ Die Pixeldifferenz wird nur anhand des Y-Kanals berechnet.
.Frame-Differenzwerte innerhalb des Heute-100sec-Videos
image::cuts.svg[]
-Betrachtet man den Graphen, welche aus diesen Werten entsteht, laesst sich
+Betrachtet man den Graphen, welche aus diesen Werten entsteht, lassen sich
Schnitte gut anhand der Pieks erkennen.
Da diese Pieks allerdings nicht immer die gleichen Amplitude haben und auch
andere Wertebereiche, welche keinen Schnitt enthalten eine aehnliche Amplitude
@@ -125,6 +135,16 @@ vom Anfrang eines anderen Videos.
Ausgegeben wird der Zeitpunkt des Frames mit der groessten Uebereinstimmung.
Ab diesem Zeitpunkt faehrt der Film dann ohne einen stoerenden Uebergang fort.
+.Last-Frame-Differenz von Video-1 ueber Video-2
+image::overlap.svg[]
+
+Der obere Graph zeigt, die Differenz eines des letzten Framens von Video-1 ueber
+die erste Minute von Video-2.
+Dabei wird nach ca. sechs Sekunden der kleinste Wert ermittelt.
+Dieses Minimum ist auch genau der Punkt, andem die Ueberlapung endet.
+Beim Zusammenschneiden der beiden Videoteile kann also bei Video-2 die ersten
+sechs Sekunden herrauslassen.
+
== Literatur
* Thorsten Janke and Markus Koppers. ``Optimierung und Implementierung