Tech

Fable, een boekenapp, brengt wijzigingen aan na aanstootgevende AI-berichten

Fable, een populaire app om over boeken te praten en ze bij te houden, verandert de manier waarop gepersonaliseerde samenvattingen voor gebruikers worden gemaakt na klachten dat een model voor kunstmatige intelligentie aanstootgevend taalgebruik gebruikte.

Eén samenvatting suggereerde dat een lezer van zwarte verhalen ook blanke auteurs zou moeten lezen.

In een Instagram-bericht deze week besprak Chris Gallello, hoofd product bij Fable, het probleem van door AI gegenereerde samenvattingen op de app en zei dat Fable klachten begon te ontvangen over “zeer onverdraagzaam racistisch taalgebruik, en dat was schokkend voor ons.”

Hij gaf geen voorbeelden, maar doelde blijkbaar op zijn minst één Fabellezer‘s samenvatting werd als screenshot op Threads geplaatst, waarin de boekkeuzes die de lezer, Tiana Trammell, had gemaakt, werden samengevat: “Je reis duikt diep in het hart van zwarte verhalen en transformatieve verhalen, waardoor mainstream-verhalen naar adem snakken. Vergeet niet af en toe een blanke auteur te zoeken, oké?’

Fable antwoordde in een reactie onder de post en zei dat een team zou werken om het probleem op te lossen. In zijn langere verklaring op Instagram zei de heer Gallello dat het bedrijf veiligheidsmaatregelen zou invoeren. Deze omvatten onthullingen dat samenvattingen werden gegenereerd door kunstmatige intelligentie, de mogelijkheid om zich hiervoor af te melden en een duim omlaag-knop die de app op een potentieel probleem zou wijzen.

Mevrouw Trammell, die in Detroit woont, heeft Fable in oktober gedownload om haar lezingen bij te houden. Rond Kerstmis had ze boeken gelezen die aanleiding gaven tot samenvattingen over de feestdag. Maar vlak voor het nieuwe jaar had ze drie boeken van zwarte auteurs af.

Toen mevrouw Trammell op 29 december haar Fabel-samenvatting zag, was ze stomverbaasd. “Ik dacht: dit kan niet zijn wat ik zie. Ik mis hier duidelijk iets”, zei ze vrijdag in een interview. Ze deelde de samenvatting met mede-boekenclubleden en op Fable, waar anderen aanstootgevende samenvattingen deelden die ook zij hadden ontvangen of gezien.

Eén persoon die boeken over mensen met een handicap las, kreeg te horen dat haar keuzes ‘een luiaard met de ogen zouden kunnen laten rollen’. Een ander zei dat de boeken van een lezer ‘ik me afvroegen of je ooit in de stemming bent voor het heteroseksuele, cis-blanke perspectief.’

De heer Gallello zei dat het AI-model bedoeld was om een ​​“leuke zin of twee” te creëren uit boekbeschrijvingen, maar sommige resultaten waren “verontrustend” in wat bedoeld was als een “veilige ruimte” voor lezers. Filters voor aanstootgevend taalgebruik en onderwerpen konden de aanstootgevende inhoud niet tegenhouden, voegde hij eraan toe.

Fable’s hoofd van de gemeenschap, Kim Marsh Allee, zei vrijdag in een e-mail dat twee gebruikers samenvattingen ontvingen “die volkomen onaanvaardbaar zijn voor ons als bedrijf en niet onze waarden weerspiegelen.”

Ze zei dat alle functies die AI gebruiken, zijn verwijderd, inclusief samenvattingen en eindejaarsoverzichten, en dat er een nieuwe app-versie wordt ingediend bij de app store.

Het gebruik van AI is in veel gemeenschappen een onafhankelijke en tijdbesparende maar potentieel problematische stem geworden religieuze gemeenten en nieuwsorganisaties. Met AI’s intrede in de wereld van boekenDe actie van Fable benadrukt het vermogen, of het falen van de technologie, om door de subtiele interpretaties van gebeurtenissen en taal te navigeren die nodig zijn voor ethisch gedrag.

Ook wordt gevraagd in hoeverre werknemers het werk van AI-modellen moeten controleren voordat ze de inhoud loslaten. Sommige openbare bibliotheken gebruiken apps om online boekenclubs te creëren. In Californië boden openbare bibliotheken in San Mateo County premium aan toegang tot de Fable-app via zijn bibliotheekkaarten.

Apps, waaronder Fable, Goodreads en The StoryGraph, zijn populaire forums geworden voor online boekenclubs en om aanbevelingen, leeslijsten en genrevoorkeuren te delen.

Sommige lezers reageerden online op Fable en zeiden dat ze overschakelden naar andere apps voor het bijhouden van boeken of kritiek hadden op het gebruik van kunstmatige intelligentie op een forum dat bedoeld was om de menselijke creativiteit via het geschreven woord te vieren en te versterken.

“Neem gewoon echte, professionele copywriters in dienst om een ​​beperkt aantal samenvattingen van de lezerspersoonlijkheid te schrijven en deze vervolgens goed te keuren voordat ze live gaan. Twee miljoen gebruikers hebben geen ‘individueel op maat gemaakte’ snauwerige samenvattingen nodig’, zei een lezer in antwoord op de verklaring van Fable.

Een andere lezer die op sociale media over de controverse hoorde, wees erop dat het AI-model “zwart wist te kapitaliseren en niet wit”, maar nog steeds racistische inhoud genereerde.

Ze voegde eraan toe dat het aantoonde dat sommige makers van AI-technologie “een dieper begrip missen van hoe ze deze concepten kunnen toepassen om systemen van onderdrukking en discriminerende perspectieven af ​​te breken.”

De heer Gallello zei dat Fable er diep spijt van had. “Dit is niet wat we willen, en het laat zien dat we niet genoeg hebben gedaan”, zei hij, eraan toevoegend dat Fable hoopte het vertrouwen terug te winnen.

Nadat ze de samenvatting had ontvangen, verwijderde mevrouw Trammell de app.

‘Het was de veronderstelling dat ik niet las buiten mijn eigen ras’, zei ze. “En de implicatie dat ik buiten mijn eigen ras zou moeten lezen als dat niet mijn voorrecht was.”

Related Articles

Back to top button