De mens heeft AI Avatar in dienst in juridisch beroep, en Judge is niet geamuseerd
Jerome Dewald zat met zijn benen gekruist en zijn handen vouwden in zijn schoot voor een beroepspanel van de staat New York, klaar om te pleiten voor een omkering van de beslissing van een lagere rechtbank in zijn geschil met een voormalige werkgever.
De rechtbank had de heer Dewald, die geen advocaat is en zichzelf vertegenwoordigde, toegestaan om zijn argument te vergezellen met een vooraf opgenomen videopresentatie.
Terwijl de video begon te spelen, toonde het een man die schijnbaar jonger was dan de 74 jaar van Mr. DeWald met een blauw, collared shirt en een beige trui en stond voor wat een wazige virtuele achtergrond leek te zijn.
Enkele seconden in de video vroeg een van de juryleden, verward door het beeld op het scherm, de heer DeWald of de man zijn advocaat was.
“Ik heb dat gegenereerd,” antwoordde de heer Dewald. “Dat is geen echt persoon.”
De rechter, Justice Sallie Manzanet-Daniels van de eerste gerechtelijke afdeling van de Appellate Division, pauzeerde even gepauzeerd. Het was duidelijk dat ze niet tevreden was met zijn antwoord.
“Het zou leuk zijn geweest om te weten dat toen je je aanvraag had ingediend,” snauwde ze naar hem.
“Ik waardeer het niet misleid,” voegde ze eraan toe voordat ze schreeuwde dat iemand de video uitschakelde.
Wat de heer DeWald niet heeft bekendgemaakt, was dat hij de digitale avatar had gemaakt met behulp van kunstmatige intelligentiesoftware, het nieuwste voorbeeld van AI die op potentieel verontrustende manieren naar het Amerikaanse rechtssysteem kruipt.
De hoorzitting waarop Mr. DeWald zijn presentatie hieldOp 26 maart werd gefilmd door camera’s van het gerechtssysteem en eerder gemeld door De bijbehorende pers.
Op vrijdag bereikte de heer DeWald, de eiser in de zaak, zei dat hij tijdens de hoorzitting overweldigd was door schaamte. Hij zei dat hij de rechters kort daarna een verontschuldigingsbrief had gestuurd, zijn diepe spijt uitte en erkende dat zijn acties de rechtbank “onbedoeld hebben misleid”.
Hij zei dat hij zijn toevlucht had genomen tot het gebruik van de software nadat hij zijn woorden in eerdere gerechtelijke procedures had gestruikeld. Met behulp van AI voor de presentatie, dacht hij, zou de druk die hij in de rechtszaal voelde zou kunnen verlichten.
Hij zei dat hij van plan was om een digitale versie van zichzelf te maken, maar daarbij ‘technische problemen’ was ondervonden, wat hem ertoe bracht een neppersoon te creëren voor de opname in plaats daarvan.
“Mijn bedoeling was nooit te misleiden, maar eerder om mijn argumenten op de meest efficiënte manier te presenteren,” zei hij in zijn brief aan de rechters. “Ik erken echter dat de juiste openbaarmaking en transparantie altijd voorrang moeten hebben.”
Een zelf beschreven ondernemer, de heer DeWald was een beroep op een eerdere uitspraak in een contractconflict met een voormalige werkgever. Hij presenteerde uiteindelijk een mondeling argument bij de hoorzitting, stamelend en het nemen van frequente pauzes om zich te hergroeperen en voorbereide opmerkingen van zijn mobiele telefoon te lezen.
Hoe beschaamd hij ook zou zijn, de heer Dewald zou wat troost kunnen nemen in het feit dat werkelijke advocaten in de problemen zijn geraakt voor het gebruik van AI voor de rechtbank.
In 2023 werd een advocaat in New York geconfronteerd met ernstige gevolgen gebruikte chatgpt om een juridische opdracht te maken vol met nep -gerechtelijke meningen en juridische citaten. De zaak toonde de fouten in het vertrouwen op kunstmatige intelligentie en weergalmde tijdens de juridische handel.
In hetzelfde jaar bood Michael Cohen, een voormalige advocaat en fixer voor president Trump, zijn advocaat nep juridische citaten Hij was van Google Bard, een kunstmatig intelligentieprogramma. De heer Cohen pleitte uiteindelijk voor genade van de federale rechter die zijn zaak voorzat, en benadrukte dat hij niet had geweten dat de generatieve tekstdienst valse informatie kon bieden.
Sommige experts zeggen dat kunstmatige intelligentie en grote taalmodellen nuttig kunnen zijn voor mensen die juridische zaken hebben om mee om te gaan, maar geen advocaten kunnen betalen. Toch blijven de risico’s van de technologie bestaan.
“Ze kunnen nog steeds hallucineren – zeer boeiende informatie produceren” die eigenlijk “nep of onzinnig is”, zegt Daniel Shin, de assistent -directeur van onderzoek aan het Centre for Legal and Court Technology aan de William & Mary Law School. “Dat risico moet worden aangepakt.”