Topic: Algorithmic persuasion in the digital society
Bestaande uit:
● Hoorcollege-aantekeningen week 1 t/m 7
○ Week 1: Introduction to algorithms and the digital society
○ Week 2: Algorithmic persuasion in online advertising
○ Week 3: Algorithmic persuasion in political communication
○ Week 4: Algorithmic persuasion in health communication
○ Week 5: Algorithmic persuasion in online news
○ Week 6: Privacy and other ethical considerations
○ Week 7: The future of algorithms
● Samenvattingen van de verplichte cursusliteratuur geïntegreerd in de hoorcollege-
aantekeningen
Literatuur verwerkt in deze samenvatting:
Boerman, S.C., Kruikemeier, S., & Zuiderveen Borgesius F.J., (2017). Online behavioral
advertising: A literature review and research agenda. Journal of Advertising, 46(3), 363-
376.
Matz, S. C., Kosinski, M., Nave, G., & Stillwell, D. J. (2017). Psychological targeting as an effective
approach to digital mass persuasion. Proceedings of the National Academy of Sciences,
114(48), 12714-12719.
Zarouali, B., Ponnet, K., Walrave, M., & Poels, K. (2017). “Do you like cookies?” Adolescents’
skeptical processing of retargeted Facebook-ads and the moderating role of privacy
concern and a textual debriefing. Computers in Human Behavior, 69, 157-165.
Strycharz, J., van Noort, G., Smit, E., & Helberger, N. (2019). Protective behavior against
personalized ads: Motivation to turn personalization off. Cyberpsychology: Journal of
Psychosocial Research on Cyberspace, 13(2).
Tufekci, Z. (2014). Engineering the public: Big data, surveillance and computational politics. First
Monday, 19(7).
Epstein, R., & Robertson, R. E. (2015). The search engine manipulation effect (SEME) and its
possible impact on the outcomes of elections. Proceedings of the National Academy of
Sciences, 112(33), E4512–E4521.
Zarouali, B., Dobber, T., Pauw, G. D., & Vreese, C. de. (2020). Using a Personality-Profiling
Algorithm to Investigate Political Microtargeting: Assessing the Persuasion Effects of
Personality-Tailored Ads on Social Media. Communication Research.
Howard, P. N., Woolley, S., & Calo, R. (2018). Algorithms, bots, and political communication in the
US 2016 election: The challenge of automated political communication for election law and
administration. Journal of Information Technology & Politics, 15(2), 81–93.
Diakopoulos, N., Trielli, D., Stark, J., & Mussenden, S. (2018). I Vote For—How Search Informs Our
Choice of Candidate. In M. Moore & D. Tambini (Eds.), Digital Dominance: The Power of
Google, Amazon, Facebook, and Apple (pp. 320–341). Oxford University Press. → geen
verplichte literatuur
Zuiderveen Borgesius, F. J., Möller, J., Kruikemeier, S., Fathaigh, R. Ó., Irion, K., Dobber, T., Bodo,
B., & de Vreese, C. H. (2018). Online Political Microtargeting: Promises and Threats for
Democracy. Utrecht Law Review, 14(1), 82–96. https://doi.org/10.18352/ulr.420 → geen
verplichte literatuur
Van Dijck, J., Poell, T., & De Waal, M. (2018). The platform society: Public values in a connective
world. Chapter 5: Healthcare and health research (pp. 97-116). Oxford University Press.
1
,Cheung, K. L., Durusu, D., Sui, X., & de Vries, H. (2019). How recommender systems could
support and enhance computer-tailored digital health programs: A scoping review. Digital
health, 5, 2055207618824727.
Kim, H. S., Yang, S., Kim, M., Hemenway, B., Ungar, L., & Cappella, J. N. (2019). An experimental
study of recommendation algorithms for tailored health communication. Computational
Communication Research, 1(1), 103-129.
Middelweerd, A., Mollee, J. S., van der Wal, C. N., Brug, J., & Te Velde, S. J. (2014). Apps to
promote physical activity among adults: a review and content analysis. International
Journal of Behavioral Nutrition and Physical Activity, 11(1), 97.
DeVito, M. A. (2017). From Editors to Algorithms: A values-based approach to understanding story
selection in the Facebook news feed. Digital Journalism, 5(6), 753–773.
Dylko, I., Dolgov, I., Hoffman, W., Eckhart, N., Molina, M., & Aaziz, O. (2017). The dark side of
technology: An experimental investigation of the influence of customizability technology on
online political selective exposure. Computers in Human Behavior, 73, 181–190.
Clerwall, C. (2014). Enter the Robot Journalist: Users’ perceptions of automated content.
Journalism Practice, 8(5), 519–531.
Thurman, N. (2019). Personalization of News. In The International Encyclopedia of Journalism
Studies (pp. 1–6).
Zarouali, B., Makhortykh, M., Bastian, M., & Araujo, T. (2020). Overcoming polarization with
chatbot news? Investigating the impact of news content containing opposing views on
agreement and credibility. European Journal of Communication.
Acquisti, A., Brandimarte, L., & Loewenstein, G. (2015). Privacy and human behavior in the age of
information. Science, 347(6221), 509-514.
Boerman, S.C., Kruikemeier, S., & Zuiderveen Borgesius F.J., (2018). Exploring motivations for
online privacy protection behavior: Insights from panel data. Communication Research. doi:
10.1177/0093650218800915
Bozdag, E. (2013). Bias in algorithmic filtering and personalization. Ethics and information
technology, 15(3), 209-227.
Koene, A., Perez, E., Carter, C. J., Statache, R., Adolphs, S., O’Malley, C., ... & McAuley, D. (2015,
May). Ethics of personalized information filtering. In International Conference on Internet
Science (pp. 123-132). Springer, Cham.
Deep Fakes, Fake News, and What Comes Next. (2019, March 20). Retrieved December 17,
2019, from The Henry M. Jackson School of International Studies website.
Araujo, T., van Zoonen, W., & ter Hoeven, C. (2019). Automated 1-2-1 Communication. SWOCC
[chapters 1-3, p. 11-31].
Kitchin, R. (2017). Thinking critically about and researching algorithms. Information,
Communication & Society, 20(1), 14-29.
First, D. (2018). Will big data algorithms dismantle the foundations of liberalism? AI & SOCIETY,
33(4), 545–556.
2
,Week 1: Introduction to algorithms and the digital society
Hoorcollege 1:
Algoritmes definiëren: algoritmes zijn gecodeerde procedures voor het transformeren van input
data naar een gewenste output, gebaseerd op gespecificeerde berekeningen (Gillespie, 2014).
De kracht van algoritmes:
● Prioritisering (een geordende lijst maken)
○ Bepaalde dingen benadrukken of onder de aandacht brengen ten koste van
anderen (vb: Google Page rangschikking)
● Classificatie (een strategie kiezen)
○ Categoriseren van een bepaalde entiteit in een bepaalde klasse door te kijken
naar een bepaald aantal kenmerken van die entiteit (vb: ongepaste YouTube
content)
● Associatie (links vinden)
○ Associatiebeslissingen gaan over het markeren van relaties tussen entiteiten (vb:
OKCupid date match)
● Filteren (isoleren wat belangrijk is) → een van de belangrijkste algoritmes.
○ Het opnemen of uitsluiten van informatie volgens verschillende regels/criteria. De
input voor filteralgoritmes houdt vaak rekening met prioritiserings-, classificatie-
of associatiebeslissingen (vb: Facebook nieuwsfeed)
De kracht van algoritmes: een belangrijk onderscheid:
● Rule-based algoritmes
○ Gebaseerd op een set regels/stappen
○ Typische “ALS -- DAN” verklaringen → [ALS ‘conditie’ DAN ‘resultaat’]
○ (+) Snel, makkelijk te volgen
○ (--) Alleen toepasbaar op de gespecificeerde condities
● Machine learning algoritmes
○ Algoritmes die uit zichzelf “leren” (gebaseerd op statistische modellen in plaats
van op deterministische regels)
○ Deze algoritmes zijn “getraind” op basis van een verzameling van data van
waaruit ze kunnen “leren” bepaald soort beslissingen te nemen zonder menselijk
toezicht
○ (+) Flexibel en vatbaar voor aanpassingen
○ (--) Moeten getraind worden, en black-box (dit houdt het idee in dat algoritmes
beslissingen nemen, maar wij niet weten waarom ze deze beslissingen nemen.
Het is lastig om te achterhalen waarom algoritmes bepaalde keuzes maken, wat
het een beetje eng maakt, omdat je geen inzicht hebt in de logica van een
algoritme)
3
, ○ Machine learning algoritmes zijn de standaard geworden in data-intensieve
online omgevingen
○ Logica: het algoritme trainen op een bepaalde steekproef van data, en vervolgens
kan het algoritme gebruikt worden om voorspellingen te doen over andere data
■ Facebook, Amazon, Netflix, etc. gebruiken allemaal ML algoritmes
● Deze bedrijven hebben allen heel veel data, dus de machine heeft
veel te leren
● Een paar honderd regels aan codes kunnen gemakkelijk een
model genereren dat bestaat uit miljoenen regels
VB: het DeepFace algoritme van Facebook:
● Gezichtsherkenningssysteem dat menselijke gezichten in digitale afbeeldingen
identificeert
● Getraind op een grote dataset met identiteitslabels van vier miljoen afbeeldingen van
gezichten
● 97% nauwkeurigheid
● S. Zuboff (bekende auteur): “deze systemen kunnen verkocht worden aan bedrijven en
autoritaire regimes
Het niveau van automatisering in algoritmes:
Aanbevelingssystemen (Recommender Systems):
● Dit zijn algoritmes die suggesties geven voor content die waarschijnlijk interessant is voor
een bepaalde gebruiker (Ricci et al., 2015)
○ Deze algoritmes beslissen welke content wordt getoond aan wie, gebaseerd op
bepaalde criteria
○ Gebruikers ontvangen dus verschillende stromen van online content
○ VB: nieuwsfeed van FB, films op Netflix, liedjes op Spotify, video’s op YouTube,
producten op Amazon, etc.
● Grondgedachte: overload aan keuze vermijden, om de relevantie voor gebruikers te
maximaliseren en efficiënter te werk te gaan
Aanbevelingssystemen: drie technieken (belangrijk!)
● Content-based filtering (de meest simpele techniek): deze algoritmes leren om items aan
te bevelen die vergelijkbaar zijn met items die de gebruiker in het verleden leuk vond (=
gebaseerd op de gelijkenis van items)
● Collaborative filtering: deze algoritmes suggereren aanbevelingen aan de gebruiker
4