Hoofdstuk 1 [ONDERZOEK] ‘Meer vertrouwen in AI bij inzet klantervaringen’

Consumenten hebben vertrouwen in artificial intelligence (AI) als het wordt ingezet om hun klantervaringen te transformeren, maar maken zich steeds meer zorgen over de toename van het gebruik van AI in andere disciplines. Dit is een van de bevindingen uit nieuw onderzoek van dat werd gepresenteerd tijdens het jaarlijkse event in Las Vegas. Een onderzoeksbureau vroeg 5.000 consumenten over de hele wereld naar hun mening over AI, de voortdurende evolutie ervan en de manieren waarop ze met deze technologie omgaan.

 Binnen gebieden waar het draait om klantervaring blijkt AI algemeen geaccepteerd te zijn. Volgens tweederde (67%) van de respondenten zou AI de klantenservice van de bedrijven waarmee ze communiceren, kunnen verbeteren. Meer dan de helft (54%) zegt dat organisaties die AI al gebruiken hun klanten waarschijnlijk meer voordelen bieden, dan de organisaties die dat nog niet doen. 47% zegt al gewend te zijn aan klantenservice op basis van AI-diensten. Tweederde (64%) verwacht dat de meeste grote afdelingen van organisaties binnen nu en de komende tien jaar zullen draaien op AI en automatisering.

Toch leeft er onder de consumenten op verschillende punten nog wantrouwen in AI:

  • Voorkeur voor menselijk contact: Ondanks dat ze aangeven AI bij klantinteractie prima te vinden, communiceert 71% van de respondenten nog steeds liever met een mens dan met AI. Enkele voorbeelden: 1) 68% denkt dat een echte bankmedewerker objectiever beslist om een banklening wel of niet te vertrekken, dan een AI-oplossing. 2) 74% vertrouwt een diagnose van een menselijke arts eerder dan wanneer een AI-oplossing dit doet; ook als de AI-oplossing vaker gelijk heeft, maar zijn beslissing niet kan uitleggen. 3) 51% denkt dat een zelfrijdende (autonome) ​​auto betere beslissingen kan nemen om een ongeluk te voorkomen dan een menselijke bestuurder. Toch vindt 65% dat AI in zo’n situatie een menselijke bestuurder niet mag overrulen.
  • De opkomst van machines: Een sterke meerderheid (86%) denkt dat AI zichzelf kan evolueren naar immoreel gedrag; meer dan een kwart (27%) vindt dat dit al is gebeurd. Bijna de helft (48%) zegt dat het aannemelijk is dat generatieve AI op den duur bewust of zelfbewust zal worden. Bijna een derde (30%) maakt zich zorgen dat AI de mens te afhankelijk maakt. Dit is een lichte stijging ten opzichte van de 27% uit eerder onderzoek in 2019. Slechts 16% van de respondenten maakt zich helemaal geen zorgen over AI.
  • Reality check: Uit de studie blijkt dat het algemeen bewustzijn ten aanzien van AI als hulpmiddel voor dagelijks gebruik is gegroeid. Zo zegt meer dan de helft van de respondenten zich te realiseren dat het merendeel van alle foto’s (55%) en video’s (55%) die ze zien, zijn gemaakt met behulp van deze technologie. Tegelijkertijd neemt ook de bezorgdheid toe omdat het steeds lastiger wordt om echt en nep van elkaar te onderscheiden en te bepalen wat door een mens en wat door AI is gegenereerd. Bij het voorleggen van een lang artikel geeft bijna tweederde (63%) aan niet te kunnen zeggen of het door AI of een mens was geschreven; bij het tonen van foto’s was dit 59% en bij video’s 58%. Meer dan de helft (56%) ervaart dit ook bij tv-reportages die ze hebben gezien.

“Het is logisch dat er een bepaalde mate van tegenstrijdige gevoelens ontstaat nu AI dankzij toepassingen als Midjourney en ChatGPT is doorgedrongen tot het grote publiek. Laten we niet vergeten dat veel mensen de voordelen van deze technologie al zien; een vraag stellen aan Alexa of Siri is voor de meesten niets nieuws meer,” aldus Dr. Rob Walker, general manager, 1:1 customer engagement bij Pega. ”Misschien is het daarom ook wel onvermijdelijk dat hoe meer aandacht er is voor deze technologie, hoe groter de angst is voor sciencefictionachtige ‘doemscenario’s’. Daarom is het voor organisaties zo belangrijk transparant te zijn over hun AI-systemen en wat ze leveren. Maar ook het uitvoeren van ethische bias-tests om te monitoren en te controleren hoe hun AI-systemen zich te allen tijde ‘gedragen’.

“Consumenten houden AI toch nog op afstand als het gaat om het nemen van grote, impactvolle beslissingen en willen in hun contact met organisaties de menselijke interactie behouden. De beste manier om technologieën zoals AI te omarmen, is door ze te gebruiken om bestaande menselijke vaardigheden aan te vullen en te verbeteren. Organisaties die dit effectief doen, zullen de vruchten plukken, hun klanten tevreden houden en hun productiviteit maximaliseren.”

Over het onderzoek en ethische kwesties

Men ondervroeg wereldwijd 5.000 gebruikers over hun kijk op AI/Kunstmatige Intelligentie. De resultaten zijn bevindingen uit de Verenigde Staten, Europa, Australië en Japan.

Wanneer de term kunstmatige intelligentie (AI) wordt genoemd, trekt dit doorgaans de aandacht in de meeste gespreksgroepen. We zijn allemaal geïnteresseerd in wat we ermee kunnen doen. Echter, er heerst geen consensus over de precieze definitie van AI en de mogelijke toepassingen ervan. Vaak wordt gesproken over ‘de technologie’, maar in feite is AI het resultaat van een samenspel van diverse technologieën die gezamenlijk een vorm van intelligentie produceren. Deze kunstmatige intelligentie kan op verschillende manieren worden bereikt, zoals bijvoorbeeld whole brain emulation (WBE), waarbij een volledig brein wordt getracht te uploaden naar een computer. Wanneer we het hebben over AI, gaat het meestal echter over toepassingen op het gebied van machine learning. Machine learning vertegenwoordigt een revolutie waarbij mensen niet langer programmeren volgens vaste regels (als dit, dan dat), maar machines zelf regels afleiden uit data. Zonder een aanzienlijke hoeveelheid data, rekenkracht en algoritmen is AI niet mogelijk.

Wanneer ethische vraagstukken ter sprake komen

Een vergelijkbaar complex principe lijkt van toepassing te zijn op ethiek; het is niet eenvoudig om tot een eenduidige opvatting te komen. Ethiek, als tak van de filosofie, richt zich op de systematische reflectie van wat als goed of juist handelen wordt beschouwd.

Wanneer ethische vraagstukken ter sprake komen, heeft iedereen wel een mening, maar het perspectief waaruit we redeneren blijft vaak onduidelijk. ‘De ethiek’ bestaat niet; er zijn verschillende ethische stromingen, zoals gevolgenethiek (gericht op de resultaten van handelen) en beginselethiek (waarbij het beginsel het uitgangspunt is, ongeacht de gevolgen van het handelen).

Bijvoorbeeld, denk aan Robin Hood; hij steelt van de rijken om aan de armen te geven. De ethische beoordeling hangt af van het perspectief. In de gevolgenethiek zijn de acties van Robin Hood te rechtvaardigen, omdat het bijdraagt aan meer gelijkheid. Maar vanuit de beginselethiek is het onethisch; stelen is verboden, zelfs als het voor een nobel doel is. Het feit dat zowel AI als ethiek overkoepelende begrippen zijn met diverse stromingen en benaderingen, maakt de discussie er niet eenvoudiger op. In discussies worden verschillende AI-toepassingen en ethische stromingen vaak vermengd.

 

Het is daarom essentieel om nader in te gaan op de opkomst van ethiek in AI en verschillende ethische vraagstukken en stromingen te onderscheiden.

Columns-serie voor MarketingReport.nl over AI en marketing

[AI & Marketing door Patrick Petersen] We moeten iets met conversational AI!

In deze serie duikt Patrick Petersen in de wereld van AI. Lezers van MarketingReport.nl maken kans op zijn nieuwe boek, waarin hij alle ins en outs van AI door marketeers op een begrijpelijke manier uiteenzet.

De irritatie om met slecht geïnstrueerde chatbots de klantreis te moeten doorlopen, groeit. Met die leuke, kleurrijke en menselijke AI-avatars wordt chatten met zomaar een callcenter weer leuk.

“We moeten iets met conversational AI!” het is een kreet die je weleens lukraak door de gangen van contactcenters hoort galmen. Na veel onderzoek heb ik in mijn Handboek.AI de kunstmatig intelligente mogelijkheden van AI-chats op een rij kunnen zetten. Het implementeren van conversationale AI om klantcontact te automatiseren is echter een precaire zaak.

  • Wat zijn de verschillen met normale chatbots?
  • Wat zijn praktische voorbeelden?
  • Wat zijn de echte voordelen?
  • Hoe pas je conversational AI zelf toe?

Klik hier!

Hoofdstuk 5-6-7: De inzet van conversational AI binnen contactcenters

We moeten iets met conversational AI; het is een kreet die je weleens lukraak door de gangen van contactcenters hoort galmen. Het implementeren van Conversational AI om klantcontact te automatiseren is echter een precaire zaak. Welke stappen moet je doorlopen? Hoe kies je de juiste tooling? Hoe zorg je dat alles juridisch geborgd is? Om organisaties hierbij te helpen publiceert de DDMA Commissie Conversational AI vandaag het whitepaper: Hoe pas je Conversational AI toe binnen je contactcenter? 
 
 
In dit whitepaper komt het volgende aanbod; het bepalen van het hele trajctproces in 6 stappen en de benodigde expertise die er bij elke stap nodig is (1), het vaststellen van doelen (2), het kiezen van passende contactcenter-tooling (3) en het kiezen van een Conversational AI-tooling (4). Tot slot sluiten we af met de juridische overwegingen die je moet nemen (5), een verdiepingshoofdstuk met toelichting van hoe Conversational AI precies werkt (6) en geven we een aantal bruikbare use cases (7).
image
Marike van de Klomp, voorzitter van de DDMA Commissie Conversational AI: ‘De mogelijkheden van conversational AI zijn eindeloos. En die zijn met de opkomst van Large Language Models nog groter geworden. Dankzij Conversational AI zijn wij in staat op basis van data, het advies aan klanten persoonlijker te maken, en kunnen we tijd besparen voor klant en medewerker op repetitieve en handmatige taken. Hierdoor kunnen bedrijven tijd en middelen besparen en zich richten op meer waardevolle zaken zoals inhoudelijke adviesgesprekken en verbetering van klantenservice. Voorwaarde voor een succesvolle inzet van conversational AI is wel dat het hele traject, van idee tot implementatie, zorgvuldig is uitgedacht. Dat is precies de reden waarom we dit whitepaper met de commissie hebben geschreven. Om bedrijven te voorzien van concrete tips en handvatten om Conversational AI in te zetten en om de klant nóg beter van dienst te kunnen zijn.’

Hoofdstuk 6: Upgrade ChatGPT geeft mogelijkheid tot maken eigen versie #tutorial

 

OpenAI, het Amerikaanse bedrijf verantwoordelijk voor de ontwikkeling van de chatbot ChatGPT, lanceert een nieuwe functionaliteit waarmee gebruikers in staat zijn hun eigen gepersonaliseerde chatbot te creëren. Deze gespecialiseerde toepassingen, genaamd GPT’s, kunnen variëren van hulp bij het leren van wiskunde voor kinderen tot het uitleggen van regels van bordspellen. Een aantal tools om een eigen chatbot te maken wordt behandeld in het Handboek.AI.

Het bedrijf heeft vandaag tijdens een ontwikkelaarsconferentie aangekondigd dat gebruikers geen programmeerkennis nodig hebben om een GPT te ontwikkelen. Bovendien plant OpenAI later deze maand de opening van een winkel waar gebruikers op maat gemaakte GPT’s van anderen kunnen vinden, waarmee ontwikkelaars geld kunnen verdienen.

Deze winkel wordt vergeleken met de App Store van techgigant Apple, waar consumenten apps kunnen aanschaffen voor hun tablets of smartphones.

Daarnaast heeft OpenAI op de conferentie aangekondigd dat er een preview-versie komt van GPT-4 Turbo, een krachtigere en snellere versie van de technologie achter ChatGPT. Deze technologie maakt gebruik van online gegevens tot april van dit jaar, in tegenstelling tot de oorspronkelijke GPT-4, die gegevens had tot september 2021.

Ter herinnering, deze maand markeert het eenjarig jubileum sinds de beschikbaarheid van ChatGPT voor het brede publiek. Volgens OpenAI maken momenteel ongeveer 100 miljoen mensen wekelijks gebruik van de chatbot.

Bekijk deze tutorial:

Update taalmodel

OpenAI heeft in de loop der tijd verschillende versies van het ChatGPT-model ontwikkeld, elk met verbeteringen en verfijningen. Hier zijn enkele van de verschillende versies:

GPT-1: De eerste in de serie, GPT-1 had 117 miljoen parameters. OpenAI trainde het voor het eerst in juni 2018.

GPT-2: Uitgebracht in februari 2019, was GPT-2 een aanzienlijke verbetering met 1,5 miljard parameters. Het werd aanvankelijk niet in zijn volledige vorm vrijgegeven vanwege zorgen over mogelijk misbruik.

GPT-3: Uitgebracht in juni 2020, maakte GPT-3 opnieuw een aanzienlijke sprong met 175 miljard parameters, waardoor het een van de krachtigste taalmodellen tot nu toe is.

GPT-3.5-Turbo: Het is vergelijkbaar qua mogelijkheden met GPT-3, maar het is verder verfijnd om een betere gebruikerservaring te bieden bij taken met één beurt en meerfasige gesprekken.

Ondertussen is eind 2023 GPT-4 de premiumversie van ChatGPT. Het kan alles doen wat 3.5 kan doen, plus:

  • Gebruikers in staat stellen tools te creëren
  • Een langere geheugen capaciteit van 64.000 woorden bieden
  • De meest recente gegevens van internet ophalen
  • Complexere invoer begrijpen
  • Afbeeldingsaanwijzingen accepteren
  • Onthoud dat elke volgende versie in wezen een voortzetting is van dezelfde aanpak. Ze worden getraind op een breed scala aan internettekst, maar ze weten geen details over welke documenten in hun trainingsset zaten en hebben geen toegang tot privé- of bedrijfsspecifieke informatie.

Hoofdstuk 6: AI en klantenservice

Voor een optimale klantbeleving is AI essentieel, maar het moet samenwerken met menselijke intelligentie om grenzeloze kansen te ontsluiten,” stelt Martin Taylor, adjunct-CEO van Content Guru. De buzz rondom Kunstmatige Intelligentie (AI) heeft nu actie nodig in plaats van alleen woorden. Er zijn zorgen geuit dat AI heimelijk wordt gebruikt om banen te verminderen en zo de winst te verhogen, wat de beeldvorming niet heeft geholpen. Er zijn zowel overdreven zorgen als te hoge verwachtingen over de capaciteiten van AI, wat niet noodzakelijk de werkelijke potentie ervan weerspiegelt.

 

 


1601, #1601

Hoofdstuk 1: AI en de sociale impact

AI en de sociale impact?

Nadeel is dat AI niet alleen fraude kan opsporen maar ook vormen van fraude kan vergemakkelijk. Dank aan het klonen van stemmen waar reeds de Amerikaanse telecomtoezichthouder, de Federal Trade Commission (FTC), een waarschuwing over heeft gepubliceerd. Voor deze vorm van oplichting is een korte audioclip van de stem van je familielid voldoende. De AI-software doet de rest en kan vervolgens alles in de nagemaakte stem zeggen. “Wanneer de oplichter je belt, klinkt hij precies als jouw familielid.”

 

 

 

1107,#1107