100% satisfaction guarantee Immediately available after payment Both online and in PDF No strings attached
logo-home
Topic: Algorithmic Persuasion in the Digital Society: Samenvatting van de hoorcolleges en verplichte literatuur (cijfer: 8,3) $7.75
Add to cart

Summary

Topic: Algorithmic Persuasion in the Digital Society: Samenvatting van de hoorcolleges en verplichte literatuur (cijfer: 8,3)

7 reviews
 362 views  36 purchases
  • Course
  • Institution

Uitgebreide uitwerking van de hoorcollege-aantekeningen van het topic Algorithmic Persuasion in the Digital Society, waarbij de verplichte literatuur is geïntegreerd in de samenvatting. Het vak wordt volledig in het Engels gegeven, maar deze samenvatting is uitgewerkt in het Nederlands. Al...

[Show more]

Preview 4 out of 63  pages

  • March 16, 2021
  • 63
  • 2020/2021
  • Summary

7  reviews

review-writer-avatar

By: ivoschenk • 1 year ago

review-writer-avatar

By: juliadekloet • 1 year ago

review-writer-avatar

By: floorcuperus • 1 year ago

review-writer-avatar

By: maryniamobiel • 3 year ago

review-writer-avatar

By: ellasanthagens • 3 year ago

review-writer-avatar

By: aisch • 3 year ago

Translated by Google

Very clear and complete!

review-writer-avatar

By: josephinedekeijzer • 3 year ago

avatar-seller
Topic: Algorithmic persuasion in the digital society

Bestaande uit:
● Hoorcollege-aantekeningen week 1 t/m 7
○ Week 1: Introduction to algorithms and the digital society
○ Week 2: Algorithmic persuasion in online advertising
○ Week 3: Algorithmic persuasion in political communication
○ Week 4: Algorithmic persuasion in health communication
○ Week 5: Algorithmic persuasion in online news
○ Week 6: Privacy and other ethical considerations
○ Week 7: The future of algorithms
● Samenvattingen van de verplichte cursusliteratuur geïntegreerd in de hoorcollege-
aantekeningen

Literatuur verwerkt in deze samenvatting:
Boerman, S.C., Kruikemeier, S., & Zuiderveen Borgesius F.J., (2017). Online behavioral
advertising: A literature review and research agenda. Journal of Advertising, 46(3), 363-
376.
Matz, S. C., Kosinski, M., Nave, G., & Stillwell, D. J. (2017). Psychological targeting as an effective
approach to digital mass persuasion. Proceedings of the National Academy of Sciences,
114(48), 12714-12719.
Zarouali, B., Ponnet, K., Walrave, M., & Poels, K. (2017). “Do you like cookies?” Adolescents’
skeptical processing of retargeted Facebook-ads and the moderating role of privacy
concern and a textual debriefing. Computers in Human Behavior, 69, 157-165.
Strycharz, J., van Noort, G., Smit, E., & Helberger, N. (2019). Protective behavior against
personalized ads: Motivation to turn personalization off. Cyberpsychology: Journal of
Psychosocial Research on Cyberspace, 13(2).
Tufekci, Z. (2014). Engineering the public: Big data, surveillance and computational politics. First
Monday, 19(7).
Epstein, R., & Robertson, R. E. (2015). The search engine manipulation effect (SEME) and its
possible impact on the outcomes of elections. Proceedings of the National Academy of
Sciences, 112(33), E4512–E4521.
Zarouali, B., Dobber, T., Pauw, G. D., & Vreese, C. de. (2020). Using a Personality-Profiling
Algorithm to Investigate Political Microtargeting: Assessing the Persuasion Effects of
Personality-Tailored Ads on Social Media. Communication Research.
Howard, P. N., Woolley, S., & Calo, R. (2018). Algorithms, bots, and political communication in the
US 2016 election: The challenge of automated political communication for election law and
administration. Journal of Information Technology & Politics, 15(2), 81–93.
Diakopoulos, N., Trielli, D., Stark, J., & Mussenden, S. (2018). I Vote For—How Search Informs Our
Choice of Candidate. In M. Moore & D. Tambini (Eds.), Digital Dominance: The Power of
Google, Amazon, Facebook, and Apple (pp. 320–341). Oxford University Press. → geen
verplichte literatuur
Zuiderveen Borgesius, F. J., Möller, J., Kruikemeier, S., Fathaigh, R. Ó., Irion, K., Dobber, T., Bodo,
B., & de Vreese, C. H. (2018). Online Political Microtargeting: Promises and Threats for
Democracy. Utrecht Law Review, 14(1), 82–96. https://doi.org/10.18352/ulr.420 → geen
verplichte literatuur
Van Dijck, J., Poell, T., & De Waal, M. (2018). The platform society: Public values in a connective
world. Chapter 5: Healthcare and health research (pp. 97-116). Oxford University Press.


1

,Cheung, K. L., Durusu, D., Sui, X., & de Vries, H. (2019). How recommender systems could
support and enhance computer-tailored digital health programs: A scoping review. Digital
health, 5, 2055207618824727.
Kim, H. S., Yang, S., Kim, M., Hemenway, B., Ungar, L., & Cappella, J. N. (2019). An experimental
study of recommendation algorithms for tailored health communication. Computational
Communication Research, 1(1), 103-129.
Middelweerd, A., Mollee, J. S., van der Wal, C. N., Brug, J., & Te Velde, S. J. (2014). Apps to
promote physical activity among adults: a review and content analysis. International
Journal of Behavioral Nutrition and Physical Activity, 11(1), 97.
DeVito, M. A. (2017). From Editors to Algorithms: A values-based approach to understanding story
selection in the Facebook news feed. Digital Journalism, 5(6), 753–773.
Dylko, I., Dolgov, I., Hoffman, W., Eckhart, N., Molina, M., & Aaziz, O. (2017). The dark side of
technology: An experimental investigation of the influence of customizability technology on
online political selective exposure. Computers in Human Behavior, 73, 181–190.
Clerwall, C. (2014). Enter the Robot Journalist: Users’ perceptions of automated content.
Journalism Practice, 8(5), 519–531.
Thurman, N. (2019). Personalization of News. In The International Encyclopedia of Journalism
Studies (pp. 1–6).
Zarouali, B., Makhortykh, M., Bastian, M., & Araujo, T. (2020). Overcoming polarization with
chatbot news? Investigating the impact of news content containing opposing views on
agreement and credibility. European Journal of Communication.
Acquisti, A., Brandimarte, L., & Loewenstein, G. (2015). Privacy and human behavior in the age of
information. Science, 347(6221), 509-514.
Boerman, S.C., Kruikemeier, S., & Zuiderveen Borgesius F.J., (2018). Exploring motivations for
online privacy protection behavior: Insights from panel data. Communication Research. doi:
10.1177/0093650218800915
Bozdag, E. (2013). Bias in algorithmic filtering and personalization. Ethics and information
technology, 15(3), 209-227.
Koene, A., Perez, E., Carter, C. J., Statache, R., Adolphs, S., O’Malley, C., ... & McAuley, D. (2015,
May). Ethics of personalized information filtering. In International Conference on Internet
Science (pp. 123-132). Springer, Cham.
Deep Fakes, Fake News, and What Comes Next. (2019, March 20). Retrieved December 17,
2019, from The Henry M. Jackson School of International Studies website.
Araujo, T., van Zoonen, W., & ter Hoeven, C. (2019). Automated 1-2-1 Communication. SWOCC
[chapters 1-3, p. 11-31].
Kitchin, R. (2017). Thinking critically about and researching algorithms. Information,
Communication & Society, 20(1), 14-29.
First, D. (2018). Will big data algorithms dismantle the foundations of liberalism? AI & SOCIETY,
33(4), 545–556.




2

,Week 1: Introduction to algorithms and the digital society

Hoorcollege 1:

Algoritmes definiëren: algoritmes zijn gecodeerde procedures voor het transformeren van input
data naar een gewenste output, gebaseerd op gespecificeerde berekeningen (Gillespie, 2014).




De kracht van algoritmes:
● Prioritisering (een geordende lijst maken)
○ Bepaalde dingen benadrukken of onder de aandacht brengen ten koste van
anderen (vb: Google Page rangschikking)
● Classificatie (een strategie kiezen)
○ Categoriseren van een bepaalde entiteit in een bepaalde klasse door te kijken
naar een bepaald aantal kenmerken van die entiteit (vb: ongepaste YouTube
content)
● Associatie (links vinden)
○ Associatiebeslissingen gaan over het markeren van relaties tussen entiteiten (vb:
OKCupid date match)
● Filteren (isoleren wat belangrijk is) → een van de belangrijkste algoritmes.
○ Het opnemen of uitsluiten van informatie volgens verschillende regels/criteria. De
input voor filteralgoritmes houdt vaak rekening met prioritiserings-, classificatie-
of associatiebeslissingen (vb: Facebook nieuwsfeed)

De kracht van algoritmes: een belangrijk onderscheid:
● Rule-based algoritmes
○ Gebaseerd op een set regels/stappen
○ Typische “ALS -- DAN” verklaringen → [ALS ‘conditie’ DAN ‘resultaat’]
○ (+) Snel, makkelijk te volgen
○ (--) Alleen toepasbaar op de gespecificeerde condities
● Machine learning algoritmes
○ Algoritmes die uit zichzelf “leren” (gebaseerd op statistische modellen in plaats
van op deterministische regels)
○ Deze algoritmes zijn “getraind” op basis van een verzameling van data van
waaruit ze kunnen “leren” bepaald soort beslissingen te nemen zonder menselijk
toezicht
○ (+) Flexibel en vatbaar voor aanpassingen
○ (--) Moeten getraind worden, en black-box (dit houdt het idee in dat algoritmes
beslissingen nemen, maar wij niet weten waarom ze deze beslissingen nemen.
Het is lastig om te achterhalen waarom algoritmes bepaalde keuzes maken, wat
het een beetje eng maakt, omdat je geen inzicht hebt in de logica van een
algoritme)



3

, ○ Machine learning algoritmes zijn de standaard geworden in data-intensieve
online omgevingen
○ Logica: het algoritme trainen op een bepaalde steekproef van data, en vervolgens
kan het algoritme gebruikt worden om voorspellingen te doen over andere data
■ Facebook, Amazon, Netflix, etc. gebruiken allemaal ML algoritmes
● Deze bedrijven hebben allen heel veel data, dus de machine heeft
veel te leren
● Een paar honderd regels aan codes kunnen gemakkelijk een
model genereren dat bestaat uit miljoenen regels

VB: het DeepFace algoritme van Facebook:
● Gezichtsherkenningssysteem dat menselijke gezichten in digitale afbeeldingen
identificeert
● Getraind op een grote dataset met identiteitslabels van vier miljoen afbeeldingen van
gezichten
● 97% nauwkeurigheid
● S. Zuboff (bekende auteur): “deze systemen kunnen verkocht worden aan bedrijven en
autoritaire regimes

Het niveau van automatisering in algoritmes:




Aanbevelingssystemen (Recommender Systems):
● Dit zijn algoritmes die suggesties geven voor content die waarschijnlijk interessant is voor
een bepaalde gebruiker (Ricci et al., 2015)
○ Deze algoritmes beslissen welke content wordt getoond aan wie, gebaseerd op
bepaalde criteria
○ Gebruikers ontvangen dus verschillende stromen van online content
○ VB: nieuwsfeed van FB, films op Netflix, liedjes op Spotify, video’s op YouTube,
producten op Amazon, etc.
● Grondgedachte: overload aan keuze vermijden, om de relevantie voor gebruikers te
maximaliseren en efficiënter te werk te gaan

Aanbevelingssystemen: drie technieken (belangrijk!)
● Content-based filtering (de meest simpele techniek): deze algoritmes leren om items aan
te bevelen die vergelijkbaar zijn met items die de gebruiker in het verleden leuk vond (=
gebaseerd op de gelijkenis van items)
● Collaborative filtering: deze algoritmes suggereren aanbevelingen aan de gebruiker


4

The benefits of buying summaries with Stuvia:

Guaranteed quality through customer reviews

Guaranteed quality through customer reviews

Stuvia customers have reviewed more than 700,000 summaries. This how you know that you are buying the best documents.

Quick and easy check-out

Quick and easy check-out

You can quickly pay through credit card or Stuvia-credit for the summaries. There is no membership needed.

Focus on what matters

Focus on what matters

Your fellow students write the study notes themselves, which is why the documents are always reliable and up-to-date. This ensures you quickly get to the core!

Frequently asked questions

What do I get when I buy this document?

You get a PDF, available immediately after your purchase. The purchased document is accessible anytime, anywhere and indefinitely through your profile.

Satisfaction guarantee: how does it work?

Our satisfaction guarantee ensures that you always find a study document that suits you well. You fill out a form, and our customer service team takes care of the rest.

Who am I buying these notes from?

Stuvia is a marketplace, so you are not buying this document from us, but from seller verahoogerwerf. Stuvia facilitates payment to the seller.

Will I be stuck with a subscription?

No, you only buy these notes for $7.75. You're not tied to anything after your purchase.

Can Stuvia be trusted?

4.6 stars on Google & Trustpilot (+1000 reviews)

51662 documents were sold in the last 30 days

Founded in 2010, the go-to place to buy study notes for 15 years now

Start selling
$7.75  36x  sold
  • (7)
Add to cart
Added