In this research, we explored how different variables influence the user experience in the TikTok social media channel. The engagement of the users in giving meaningful feedback to the posts was the main variable being observed. This is important because in several business-to-business and business-to-consumer applications the companies are interested in using meaningful feedback from the users to improve their products, be it a tangible device or a media product. So, instead of focusing on getting more followers, in situations like that, it is more important the kind of feedback received from the users. In this research, a mixed methods approach was applied. Joining the quantitative results with the insights from the qualitative part of the research, it is possible to conclude that the algorithm used by TikTok to define the content in the timelines has a bigger influence on engagement than the kind of content. To achieve the desired result of an increase in the number and quality of feedback by the viewers, it was found that being more direct can produce interesting increases. The posts where the viewers were asked to comment and reply with a certain answer have the most comments. In some instances, the increase is almost 300% more when comparing it to the average amount of comments. Most interviewees also stated that they would love to help out and would provide meaningful feedback if this was directly asked. The same goes for Q&A’s and interaction-based posts.
LINK
In ons dagelijkse leven hebben we veel met technologie te maken, vaak met interactieve, informatie-gerichte technologie: als consument doen we online boodschappen – zeker in deze pandemische tijd; als reiziger in het openbaar vervoer plannen en betalen we onze reis met interactieve technologie – nu weliswaar even wat minder; als weggebruiker navigeren we op basis van technologie; en ons energieverbruik in huis wordt ‘smart’ gemeten en geadministreerd. Als burger staan we steeds vaker middels technologie in contact met overheden. Denk aan alle online communicatie met de overheid, zo als de belastingdienst en gemeenten die middels apps, websites en de ‘Berichtenbox’ van ‘MijnOverheid’ met burgers communiceren. En er wordt over burgers en ons gedrag al heel wat data verzameld, door gemeenten, de politie, door bijvoorbeeld de zorgsector. En ook in de publieke ruimte wordt data verzameld – met smart city technologie, zoals camera’s en sensoren – met als doel om de stad veiliger, efficiënter en leefbaarder te maken. Al die ‘big data’ maakt het mogelijk om inzichten te genereren – al dan niet met kunstmatige intelligentie – en besluiten te nemen. We gebruiken technologie ook om als burger zelf actie te ondernemen. Bij de overheid kunnen we met apps melden wat er op straat verbeterd of onderhouden moet worden. Met onze buren zitten we in een WhatsApp groep of NextDoor, om bij te dragen aan de leefbaarheid en veiligheid van de buurt. We kunnen met smart home tools of citizen science kits de luchtkwaliteit meten, binnenshuis, maar ook buitenshuis. We tekenen petities, doen mee aan peilingen en enquêtes. En social networking sites (SNS) worden intensief gebruikt, voor sociale en professionele relaties, maar ook om maatschappelijk actief te zijn, voor het organiseren van het samenleven in een buurt. We weten inmiddels dat social media ook een effectief kanaal zijn om de democratie te beïnvloeden. Burgers komen dus in aanraking met veel verschillende technologieën, met verschillende doelstellingen, resultaten en bijeffecten, en waaraan mensen in allerlei functies en rollen deelnemen. Wat centraal staat in het vakgebied Civic Technology is dat de technologie in dienst staat van het burgerschap.
Communicatieprofessionals geven aan dat organisaties geconfronteerd worden met een almaar complexere samenleving en daarmee het overzicht verloren hebben. Zo’n overzicht, een ‘360 graden blik’, is echter onontbeerlijk. Dit vooral, aldus diezelfde communicatieprofessionals, omdat dan eerder kan worden opgemerkt wanneer de legitimiteit van een organisatie ter discussie staat en zowel tijdiger als adequater gereageerd kan worden. Op dit moment is het echter nog zo dat een reactie pas op gang komt als zaken reeds in een gevorderd stadium verkeren. Onderstromen blijven onderbelicht, als ze niet al geheel onzichtbaar zijn. Een van de verklaringen hiervoor is de grote rol van sociale media in de publieke communicatie van dit moment. Die media produceren echter zoveel data dat communicatieprofessionals daartegenover machteloos staan. De enige oplossing is automatisering van de selectie en analyse van die data. Helaas is men er tot op heden nog niet in geslaagd een brug te slaan tussen het handwerk van de communicatieprofessional en de vele mogelijkheden van een datagedreven aanpak. Deze brug dan wel de vertaling van de huidige praktijk naar een hogere technisch niveau staat centraal in dit onderzoeksproject. Daarbij gaat het in het bijzonder om een vroegtijdige herkenning van potentiële issues, in het bijzonder met betrekking tot geruchtvorming en oproepen tot mobilisatie. Met discoursanalyse, AI en UX Design willen we interfaces ontwikkelen die zicht geven op die onderstromen. Daarbij worden transcripten van handmatig gecodeerde discoursanalytische datasets ingezet voor AI, in het bijzonder voor de clustering en classificatie van nieuwe data. Interactieve datavisualisaties maken die datasets vervolgens beter doorzoekbaar terwijl geautomatiseerde patroon-classificaties de communicatieprofessional in staat stellen sociale uitingen beter in te schatten. Aldus wordt richting gegeven aan handelingsperspectieven. Het onderzoek voorziet in de oplevering van een high fidelity ontwerp en een handleiding plus training waarmee analisten van newsrooms en communicatieprofessionals daadwerkelijk aan de slag kunnen gaan.
De maatschappelijke discussies over de invloed van AI op ons leven tieren welig. De terugkerende vraag is of AI-toepassingen – en dan vooral recommendersystemen – een dreiging of een redding zijn. De impact van het kiezen van een film voor vanavond, met behulp van Netflix' recommendersysteem, is nog beperkt. De impact van datingsites, navigatiesystemen en sociale media – allemaal systemen die met algoritmes informatie filteren of keuzes aanraden – is al groter. De impact van recommendersystemen in bijvoorbeeld de zorg, bij werving en selectie, fraudedetectie, en beoordelingen van hypotheekaanvragen is enorm, zowel op individueel als op maatschappelijk niveau. Het is daarom urgent dat juist recommendersystemen volgens de waarden van Responsible AI ontworpen worden: veilig, eerlijk, betrouwbaar, inclusief, transparant en controleerbaar.Om op een goede manier Responsible AI te ontwerpen moeten technische, contextuele én interactievraagstukken worden opgelost. Op het technische en maatschappelijke niveau is al veel vooruitgang geboekt, respectievelijk door onderzoek naar algoritmen die waarden als inclusiviteit in hun berekening meenemen, en door de ontwikkeling van wettelijke kaders. Over implementatie op interactieniveau bestaat daarentegen nog weinig concrete kennis. Bekend is dat gebruikers die interactiemogelijkheden hebben om een algoritme bij te sturen of aan te vullen, meer transparantie en betrouwbaarheid ervaren. Echter, slecht ontworpen interactiemogelijkheden, of een mismatch tussen interactie en context kosten juist tijd, veroorzaken mentale overbelasting, frustratie, en een gevoel van incompetentie. Ze verhullen eerder dan dat ze tot transparantie leiden.Het ontbreekt ontwerpers van interfaces (UX/UI designers) aan systematische concrete kennis over deze interactiemogelijkheden, hun toepasbaarheid, en de ethische grenzen. Dat beperkt hun mogelijkheid om op interactieniveau aan Responsible AI bij te dragen. Ze willen daarom graag een pattern library van interactiemogelijkheden, geannoteerd met onderzoek over de werking en inzetbaarheid. Dit bestaat nu niet en met dit project willen we een substantiële bijdrage leveren aan de ontwikkeling ervan.
De maatschappelijke discussies over de invloed van AI op ons leven tieren welig. De terugkerende vraag is of AI-toepassingen – en dan vooral recommendersystemen – een dreiging of een redding zijn. De impact van het kiezen van een film voor vanavond, met behulp van Netflix' recommendersysteem, is nog beperkt. De impact van datingsites, navigatiesystemen en sociale media – allemaal systemen die met algoritmes informatie filteren of keuzes aanraden – is al groter. De impact van recommendersystemen in bijvoorbeeld de zorg, bij werving en selectie, fraudedetectie, en beoordelingen van hypotheekaanvragen is enorm, zowel op individueel als op maatschappelijk niveau. Het is daarom urgent dat juist recommendersystemen volgens de waarden van Responsible AI ontworpen worden: veilig, eerlijk, betrouwbaar, inclusief, transparant en controleerbaar. Om op een goede manier Responsible AI te ontwerpen moeten technische, contextuele én interactievraagstukken worden opgelost. Op het technische en maatschappelijke niveau is al veel vooruitgang geboekt, respectievelijk door onderzoek naar algoritmen die waarden als inclusiviteit in hun berekening meenemen, en door de ontwikkeling van wettelijke kaders. Over implementatie op interactieniveau bestaat daarentegen nog weinig concrete kennis. Bekend is dat gebruikers die interactiemogelijkheden hebben om een algoritme bij te sturen of aan te vullen, meer transparantie en betrouwbaarheid ervaren. Echter, slecht ontworpen interactiemogelijkheden, of een mismatch tussen interactie en context kosten juist tijd, veroorzaken mentale overbelasting, frustratie, en een gevoel van incompetentie. Ze verhullen eerder dan dat ze tot transparantie leiden. Het ontbreekt ontwerpers van interfaces (UX/UI designers) aan systematische concrete kennis over deze interactiemogelijkheden, hun toepasbaarheid, en de ethische grenzen. Dat beperkt hun mogelijkheid om op interactieniveau aan Responsible AI bij te dragen. Ze willen daarom graag een pattern library van interactiemogelijkheden, geannoteerd met onderzoek over de werking en inzetbaarheid. Dit bestaat nu niet en met dit project willen we een substantiële bijdrage leveren aan de ontwikkeling ervan.