Fed Court se îndreaptă spre AI pentru a prezice divizarea activelor după defalcarea relațiilor – Cloud – Software


Curtea Federală din Australia a creat o dovadă a conceptului de mașină care este concepută pentru a ajuta părțile să împartă activele și pasivele după defalcarea unei relații.

Registrul de practică digitală, Jessica Der Matossian, a declarat IBM THINK 2019 din Sydney că proiectul de dovadă, dezvoltat împreună cu partenerul IBM Carrington Associates, a fost instruit pe 1600 de cereri anonime de consimțământ înaintate instanțelor.

Atunci când ambele părți implicate într-un litigiu sunt de acord cu o acțiune, aceștia pot să se adreseze instanței pentru a formaliza acordul printr-o decizie de consimțământ.

Împărțirea este de obicei efectuată de avocați pentru ambele părți, dar Curtea Federală experimentează ceea ce numește "Aplicația AI pentru aprobarea ordinului FCA" pentru a ajuta partidele să determine mai bine o împărțire care să primească aprobarea instanței.

"Instrumentul le permite, în esență, să introducă informațiile relevante și bazate pe cazuri și rezultate asemănătoare celor care se află în situații similare, acel proces de învățare a mașinilor gândește ca un om și prevede că acel procentaj este împărțit", a spus Der Matossian.

"Recomandarea ia în considerare o serie de factori cum ar fi vârsta, venitul, capacitatea de a câștiga un venit, durata relației, [and whether there] sunt implicați copiii.

"Ceea ce face acest sistem este că se uită la ceea ce judecătorii hotărăsc, iar registratorii aprobă și spune că" acesta este un rezultat mai echitabil și mai just, având în vedere situația dvs., dată fiind legea, având în vedere poziția pe care o aveți în ceea ce privește activele și pasivele sunt "."

Instrumentul nu este utilizat în prezent de către părți sau de avocați, iar Der Matossian a remarcat că, odată ce a progresat până la acest punct, apelul final asupra oricărei diviziuni a activelor ar fi în continuare unul pentru părțile implicate.

"Pentru instanță, unul dintre cele mai importante roluri pe care le jucăm este să rămână întotdeauna transparent și imparțial", a spus ea.

"Aceasta înseamnă că putem utiliza instrumentul numai pentru a face recomandări și pentru informare în acest stadiu.

"În cele din urmă, în cazul în care litigii nu le place, ei pot merge off și să fie de acord între ei sau să caute consiliere juridică suplimentare. Dar decizia este în cele din urmă la ei. "

Înainte ca inteligența artificială să poată dobândi o poziție mai profundă în determinarea rezultatelor juridice, ar trebui să răspundă la multe întrebări mai profunde și să se facă asigurări.

"Fiind o instanță, suntem limitați în modul în care putem folosi AI", a spus Der Matossian.

"A fi folosită ca instrument de luare a deciziilor nu este posibilă pentru noi. AI nu este suficient de transparentă și ridică o mulțime de întrebări legale și legale, cum ar fi "Pot avea acces la algoritmi? Sunt algoritmi un secret comercial pentru instanță? Cine răspunde pentru deciziile luate de AI? Am dreptul de a contesta o decizie luată de AI? Cum arată procesul de recurs?

"Fiind avocați și fiind atât de aversieri față de riscuri, bineînțeles că ne gândim așa."

Proba de concept utilizează algoritmi de învățare a mașinilor care rulează în IBM Watson Studio, care sunt expuse apoi ca API.

Modelele au fost realizate de Carrington Associates și Curtea Federală printr-un proces de gândire de proiectare.

"Am rulat câteva ateliere de gândire de proiectare în instanță", a declarat directorul de soluții tehnologice Carrington Associates, Atul Desai.

"A fost important să înțelegem elementul uman al procesului, deoarece de multe ori ceea ce se întâmplă este că există motive în spatele anumitor decizii pe care oamenii le fac în ceea ce privește modul în care acestea împart activele.

"A fost ceva ce am vrut să luăm în considerare în timp ce am construit soluția."

Extragerea datelor

Proiectul a întâmpinat provocări neprevăzute, punând împreună setul de date de învățare pentru a pregăti modelul de învățare a mașinilor.

În timp ce Curtea Federală are fișiere și servicii electronice complet digitale începând cu anul 2008, modul de stocare al datelor a prezentat unele probleme.

"Datele nu au fost stocate într-un format structurat de mașină. Acesta a fost în documente PDF și ceea ce trebuia să facem a fost să ne străduim mult să înțelegem structura documentelor PDF și apoi să scriem un proces complex de extracție folosind tehnologii OCR și viziune pe computer ", a spus Desai.

"Deși Curtea Federală are acces la seturi mari de date digitale, ceea ce am ajuns să găsim este modul în care stocam nu a fost grozav", a adăugat Der Matossian.

"A adăugat un nivel de complexitate la proiect și o fază de extracție totală care a fost complet neprevăzută și a adăugat timp și resurse suplimentare proiectului, ceea ce a afectat operațiunile noastre și operațiunile lui Carrington.

"Așa că, în ceea ce privește reflecția, ceea ce am învățat cu adevărat este pentru ca noi să-i depărțăm degetele să trecem mai departe în lumea inteligenței artificiale, trebuie într-adevăr să reflectăm asupra modului în care stocăm datele noastre și ce date stocăm de asemenea."

Datorită sensibilității datelor utilizate în setul de antrenament, acesta a fost anonimat și informațiile critice au fost mascate înainte de a putea fi utilizate, a adăugat Desai.

Există, de asemenea, o provocare continuă în ceea ce privește asigurarea faptului că numai date relevante sunt introduse în modelul de învățare automată.

"Societatea se schimbă mereu. Informațiile despre familii, modul în care au fost tratate cu divorțul, modul în care și-au împărțit activele și datoriile cu 10-20 de ani în urmă s-ar putea să nu fie relevante astăzi ", a spus Der Matossian.

"Atât cât avem nevoie de seturi mari de date, avem nevoie de date relevante pentru a reflecta comunitatea [changes].“

Desai a spus că există experimente în desfășurare despre cel mai bun mod de a prezenta instrumentul de învățare a mașinilor, inclusiv experimentarea cu o interfață chatbot folosind Watson Assistant.

"Acesta este doar începutul", a spus el.

"Există multe de făcut atunci când construim o soluție mai mare."

Clădind încrederea

Este posibil ca o versiune completă de producție utilizați Watson OpenScale, un serviciu relativ nou de la IBM, menit să îmbunătățească transparența în jurul funcționării interne a unui model AI – și, prin urmare, să contribuie la încrederea în ceea ce produce.

"Unul dintre lucrurile care este esențial atunci când construiți un model AI este că trebuie să existe o corectitudine în modele care vă permite să oferiți recomandări tuturor grupurilor de oameni și nu oferă recomandări părtinitoare", a spus Desai.

"IBM a introdus o soluție numită OpenScale și este ceva ce vom folosi în proiectul mai amplu.

"Modelele devin explicabile, astfel incat oamenii sa poata avea incredere in solutia AI".

Ry Crozier a participat la IBM THINK 2019 la Sydney, în calitate de invitat al IBM Australia.



Source link

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

%d blogeri au apreciat: