home
|
Visual Analogue Scales Versus Categorical Scales: Respondent Burden, Cognitive Depth, and Data Quality
Frederik Funke & Ulf-Dietrich Reips
Paper presented at the 10th annual
General Online Research Tagung (GOR) conference of the
German Society for Online Research (D.G.O.F.)
March 10-12, 2008 in Hamburg (Germany)
Abstract: Dynamic Forms: Online Surveys 2.0
Visual analogue scales (VAS; in our study plain horizontal lines with verbal anchors at each end) have proven to be advantageous in
comparison to measurement with discrete scales (like radio button scales or slider scales). They produce data on the level of an interval
scale (Reips & Funke, in press) and even perform better regarding test-retest-reliability while producing fewer cases of dropout.
Our first study ( N = 195) follows up on the findings that (1) response times with VAS were significantly higher than with 5-point radio
button scales, and (2) item nonresponse was much more frequent with VAS (see also Couper, Tourangeau, Conrad, & Singer, 2006). On
the surface, both findings seem to indicate problems for VAS-based measurement: In general, response time is suggested as an indicator
for respondent burden. But there are also opposing explanations. Higher response times may indicate deeper cognitive processing - in
most cases a desired effect. Item nonresponse can also be positive, if it represents fewer cases of satisficing behavior (see Krosnick,
1991; Reips, 2000).
To be able to decide whether higher completion times and more items with missing data values are indicators for desired or undesired
processes preceding a response we conduced a second Web experiment. Respondents ( N = 220) were randomly assigned either to a
questionnaire with VAS or with horizontal scales with seven radio buttons. To assess respondent burden, we directly asked respondents
about the perceived time needed to answer the questionnaire. Secondly, we implemented an inventory on the flow experience
(Czikszentmihalyi, 1988) perceived with either scale.
Based on the results, we call the general assumption into question that respondent burden is correlated with the time needed to answer
a questionnaire.
In the presentation, findings will be discussed in light of measurement error and the question answer process suggested by Sudman,
Bradburn, and Schwarz (1996).
Zusammenfassung: Visuelle Analogskalen kontra Kategorialskalen: Teilnehmerbelastung, kognitive Verarbeitungstiefe und Datenqualität
Visuelle Analogskalen (VAS; in unseren Untersuchungen einfache horizontale Linien mit verbal verankerten Enden) haben sich im
Vergleich zu diskreten Messinstrumenten (wie Radiobutton- oder Sliderskalen) als vorteilhaft erwiesen. Messungen mit VAS zeichnen
sich dadurch aus, dass ihre Daten das Niveau einer Intervallskala (Reips & Funke, in Druck) erreichen, sie eine größere Test-Retest-
Reliabilität aufweisen und dass die Abbruchquote geringer ist.
Unsere erste Untersuchung (N = 195) baut darauf auf, dass (1) Antwortzeiten mit VAS signifikant höher sind, als mit 5-stufigen
Radiobuttonskalen und (2) Antwortverweigerung mit VAS häufiger auftritt (siehe auch Couper, Tourangeau, Conrad, & Singer, 2006). Bei
oberflächlicher Betrachtung sind dies Indizien für Probleme mit VAS-gestützten Befragungen: Allgemein werden höhere Antwortzeiten als
ein Indikator für größere Teilnehmerbelastung gesehen. Aber es gibt auch entgegengesetzte Erklärungsmodelle. Höhere Antwortzeiten
können ein Indikator für tiefere kognitive Prozesse sein, was meist erwünscht ist. Auch Antwortverweigerung kann positiv sein, wenn
dafür weniger Fälle von Satisficing (siehe Krosnick, 1991; Reips, 2000) auftreten.
Um entscheiden zu können, ob höhere Antwortzeiten und mehr Items mit fehlenden Datenwerten Indikatoren für erwünschte oder
unerwünschte Prozesse sind, die einer Antwort vorausgehen, haben wir ein zweites Webexperiment durchgeführt. Allen Teilnehmern (N
= 220) wurde zufällig entweder ein Fragebogen mit VAS oder mit horizontalen siebenstufigen Radiobutton-Skalen zugewiesen. Um die
Teilnehmerbelastung zu messen, ließen wir die Teilnehmer die Zeit schätzen, die sie für das Beantworten des Fragebogens benötigt
hatten. Darüber hinaus implementierten wir ein Frageinventar, um bei beiden Skalen die Intensität des Flow-Erlebnisses
(Czikszentmihalyi, 1998) zu messen.
Auf diesen Befunden aufbauend, stellen wir die allgemeine Annahme in Frage, dass Teilnehmerbelastung und die Zeit, die für die
Beantwortung eines Fragebogens benötigt wird, miteinander korreliert sind.
Während der Präsentation werden alle Befunde im Licht des Messfehlers und des von Sudman, Bradburn und Schwarz (1996)
vorgestellten Frage-Antwort-Prozesses betrachtet.
|