Avv. Andrea Baldrati +39 340 4895530 Avv. Armando Strinati +39 333 5247665

News

1 Agosto 2020

COMPRAVENDITA: Lo Studio vince una causa per vizi urbanistici

vizi urbanistici - Studio legale Baldrati & Strinati
Contenzioso, Immobili e Tutela del Patrimonio, Proprietà, Tutela

In seguito all'acquisto dell'immobile, la nuova proprietaria Tizia - difesa in giudizio dall'Avv. Andrea Baldrati - è stata resa edotta della sua non conformità allo stato di fatto dei dati catastali e delle planimetrie

Il vizio era emerso nel corso di una perizia redatta successivamente all'acquisto, quale atto prodromico ad una nuova vendita dell'immobile da parte di Tizia, al fine di verificarne la regolarità urbanistica.

Si precisa che la perizia oggi è resa necessaria in virtù delle odierne prassi, le quali richiedono, nell’ambito degli atti di trasferimento immobiliare, l’allegazione di una c.d. relazione tecnica integrata ad opera di un professionista abilitato, il quale attesta, tra le altre, la conformità catastale allo stato di fatto, fornendo supporto all’attività del notaio rogante.

Conseguentemente, l'allora proprietaria Tizia, al fine di procedere con la vendita dell’immobile - poi regolarmente effettuatasi - ha dovuto sopportare, oltre al compenso del Geometra per la redazione della perizia, anche le spese per la sanatoria in favore del Comune di Bologna, per un esborso totale di € 4.640,76.

Davanti al Giudice di Pace di Bologna, l'Avv. Baldrati ha chiamato in causa il dante causa (venditore) di Tizia, producendo il rogito di vendita inter partes da cui si evinceva la dichiarazione di conformità dell'immobile oltre alla garanzia per vizi urbanistici, chiedendo così il rimborso di tutte le spese sostenute dalla propria Cliente.

Con sentenza il Giudice accoglieva la richiesta di rimborso, ma nel limite del 50%, in quanto - a tenore dello stesso provvedimento - la controparte avrebbe venduto l'immobile in perfetta buona fede, anche se la dichiarazione di conformità dell'immobile non poteva escludere la responsabilità a carico del venditore.
Secondo il Giudice, Tizia avrebbe dovuto comunque compiere un esame approfondito sullo stato dell'immobile prima dell'acquisto al fine di verificare la conformità urbanistica.

Sulla base di queste considerazioni, è stata quindi applicata la regola della responsabilità in parti uguali, che prevede una sorta di presunzione di pari responsabilità tra l'acquirente e il venditore.

Il Giudice ha quindi condannato la controparte al pagamento di metà delle spese sostenute da Tizia in relazione al vizio urbanistico, oltre al ristoro di tutte le spese processuali (comprese quelle dovute a titolo di compenso dell'Avvocato Baldrati).

Qui sotto potete scaricare la sentenza in commento (annerita in alcuni punti per motivi di privacy).

20 Luglio 2020

INTELLIGENZA ARTIFICIALE: i 7 principi di una Auditing Legale

auditing legale intelligenza artificiale
Consulenza e Gestione d’Impresa, GDPR e Diritto Digitale

La progettazione e lo sviluppo di sistemi di intelligenza artificiale (IA) deve seguire canoni legali ed etici, dalla fase di training dei dati - per "allenare" l'algoritmo o il modello implementato - fino alla fase di output, che si sostanzia in una decisione automatizzata il cui esito può avere un forte impatto sui diritti e le libertà di chi è interessato a quella decisione.
Si pensi alla decisione automatizzata relativa alla concessione o meno di un mutuo da parte di una banca, sulla base di un algoritmo IA di credit-scoring che valuta l'affidabilità di un cliente.

Diventa pertanto decisivo dotarsi di risorse e professionalità anche legali che sappiano accompagnare l'impresa o l'ente impegnato nella realizzazione di sistemi IA, nella valutazione di tutti i rischi connessi, oltre alla implementazione di un reale processo di privacy by design (di cui abbiamo già parlato QUI in una recente news).

A tal rigurado, il Gruppo di esperti ad alto livello sull'intelligenza artificiale (AI HLEG), istituito dalla Commissione europea, ha di recente pubblicato linee guide utili al fine di raggiungere tale scopo, suddividendo la fase di auditing in sette diversi principi.

Lo Studio Legale Baldrati & Strinati, nel seguire i propri clienti, si avvale delle più recenti letterature in ambito IA, per modellare la propria consulenza legali agli standard europei, promossi dalla Commissione UE e dagli altri organi comunitari.

In questo senso, vediamo quali sono i 7 principi elencati all'interno delle linee guide, e quali potrebbe essere l'oggetto della relativa consulenza.

1. HUMAN AGENCY & OVERSIGHT (azione umana e controllo)

OGGETTO DELLA CONSULENZA: si studiano tutti gli effetti connessi al rapporto tra l'uomo-utente e il sistema di intelligenza artificiale.

OBIETTIVO #1: implementare una serie di misure by design, per rendere assolutamente trasparente questo rapporto. In particolare, l'utente deve sempre essere messo nelle condizioni di sapere quando un certo "output" o decisione è il risultato di una decisione algoritmica. Inoltre, il sistema IA non deve mai generare confusione, tale per cui l'utente non è in grado di capire se sta interagendo con una "macchina" o con un uomo.

OBIETTIVO #2: Un altro rischio da mitigare è quello connesso ad una dipendenza dell'utente nei confronti dei sistemi IA. Occorre individuare procedure che non inducano l'utente ad affidarsi ciecamente dei sistemi IA (un esempio, in futuro, sarà la guida autonoma).

OBIETTIVO #3: infine si dovrà assicurare che il sistema AI non influenzi la decisione dell'utente, affinchè questa decisione resti autonoma e libera.

OBIETTIVO #4: individuare quale tipo di controllo e di intervento è concesso all'utente nel corso della relazione con il sistema IA, scegliendo fra 4 diverse tipologie indicate dal Gruppo di Esperti

2. TECHNICAL ROBUSTNESS AND SAFETY (solidità tecnica e sicurezza)

OGGETTO DELLA CONSULENZA: valutare se il sistema AI raggiunge un grado di affidabilità accettabile, fornendo servizi che soni che sono giustificabili ex post e che sono resilienti, cioè in grado di gestire cambiamenti inaspettati o contraddittori derivanti dall'interazione umana o ambientale circostante.

OBIETTIVO #1: analizzare i rischi inerenti all'uso del sistema IA, implementando misure e procedure che rispondano ad alti standard di sicurezza informatica - per evitare alterazioni o manipolazioni di dati e garantire in merito alla esattezza e precisione dei dati e delle decisioni.

3. PRIVACY AND DATA GOVERNANCE

OGGETTO DELLA CONSULENZA: analizzare la conformità legale ai principi di protezione dei dati personali (normativa GDPR) e studiare soluzioni di adeguamento del sistema IA

OBIETTIVO #1: effettuare una valutazione dei rischi privacy (Data Protection Impact Assessment), e stabilire le misure necessarie per mitigare i rischi individuati

OBIETTIVO #2: implementare un sistema di Data Governance, che preveda l'esatta conoscenza dei dati acquisiti e trattati (anche tramite un apposito registro), oltre ad una serie di meccanismi che aumentino il livello di sicurezza del trattamento (es. cifratura, pseudonimizzazione)

OBIETTIVO #3: minimizzare i dati trattati allo stretto necessario. Meno dati significa meno responsabilità per chi li tratta.

4. TRANSPARENCY (trasparenza)

OGGETTO DELLA CONSULENZA: analizzare se i dati e i processi che portano alle decisioni del sistema di intelligenza artificiale sono adeguatamente documentati per consentire la tracciabilità delle stesse decisioni. Solo così sarà possibile monitorare sia la qualità dei dati e dei modelli immessi all'interno dell'algoritmo (input), sia la qualità del risultato (output).

OBIETTIVO #1: implementare procedure di log per registrare le decisioni e i processi che hanno portato ad una decisione.

OBIETTIVO #2: documentare ogni fase di decisione, per rendere quella decisione "giustificabile" all'utente se vuole comprenderne la ragione e/o logica.

OBIETTIVO #3: predisporre strumenti per comunicare all'utente quali sono i criteri e le finalità delle decisioni effettuate dall'algoritmo e quali gli eventuali rischi e i possibili margini di errore.

5. DIVERSITY, NON DISCRIMINATION AND FAIRNESS (pluralità, non discriminazione e correttezza)

OGGETTO DELLA CONSULENZA: monitorare i set di dati utilizzati nella fase di progettazione e sviluppo per garantire una composizione plurale e rappresentativa dei dati, evitando o limitando possibili pregiudizi.

OBIETTIVO #1: eliminare o limitare possibili BIAS (effetti discriminatori o parziali) connessi alle decisioni automatizzate dei sistemi IA

OBIETTIVO #2: identificare gli utenti maggiormente esposti a BIAS e informarli adeguatamente

6. SOCIETAL AND ENVIRONMENTAL WELL-BEING (benessere sociale e ambientale)

OGGETTO DELLA CONSULENZA: analizzare gli impatti potenziali del sistema IA sul contesto ambientale e sociale (ad esempio forza lavoro)

OBIETTIVO #1: garantire una efficacia comunicazione agli utenti interessati qualora il sistema IA abbia un impatto sul sistema lavoro

7. ACCOUNTABILITY (responsabilizzazione)

OGGETTO DELLA CONSULENZA: garantire che ogni misura tecnica, organizzative e di sicurezza implementata sia efficacemente documentata, al fine di dimostrare la conformità a normative e buone prassi di settore.

OBIETTIVO: predisporre documentazione e procedure comprensibili agli utenti, ma anche a favore di organi di controllo per dimostrare in maniera efficace la propria conformità alle normative rilevanti

2 Luglio 2020

CONSULENZA LEGALE PER SISTEMI IA: un approccio privacy by design

Consulenza legale per sistemi IA
Compliance, GDPR e Diritto Digitale

Diventa sempre più importante per le software house e le start-up innovative che progettano sistemi di intelligenza artificiale conformarsi alle prescrizioni della normativa privacy (c.d. GDPR), adottando un approccio by design.

Non sorprende quindi la notizia di ieri che vede Apple impegnata ad introdurre una sorta di etichetta privacy per tutte le applicazioni che avranno accesso al suo app store.

In sostanza, gli sviluppatori di app dovranno previamente comunicare quali dati personali sono trattati tramite l'applicazione da loro progettata, oltre alle finalità del trattamento. In questo modo, l'utente riceverà indicazioni di massima sulle tipologie di trattamento, prima di effettuare l'eventuale download.

È un altro segnale che va verso una direzione chiara: la privacy sta diventando un elemento concorrenziale fra imprese innovative, e il tema assume un ruolo ancora più centrale per quelle organizzazioni che sviluppano sistemi di IA in grado di generare decisioni automatizzate mediante l'utilizzo di dati personali (come ad esempio, gli ormai noti sistemi di riconoscimento facciale oppure le applicazioni di credit scoring per valutare l'affidabilità creditizia di una persona).
Come tali, detti sistemi pongono rischi elevati sul fronte dei diritti e delle libertà fondamentali degli utenti, poichè si "nutrono" di una enorme mole di dati che necessitano di continui controlli (dalla fase di raccolta fino a quella di training).

Il rischio, altrimenti, è quelli di utilizzare dati "fallaci" (di scarsa qualità o non realmente rappresentativi di scenari statistici) o addirittura affetti da "bias", vale a dire pregiudizi o elementi discriminatori che incidono sul risultato finale delle decisioni automatizzate.

Per queste e altre ragioni connesse al grado di raffinatezza tecnologica e ingegneristica raggiunto dalla gran parte dei sistemi IA, oggi non è più rinviabile una attività di auditing legale che sia in grado di esaminare gli algoritimi alla base di tali sistemi, e prima di tutto i set di dati che li alimentano.

Lo Studio Legale Baldrati & Strinati ha da tempo avviato una consulenza legale sul punto, affiancando start-up e altre realtà innovative nella implementazione di un effettivo processo di "privacy by design", in grado di guidare il cliente nella creazione di sistemi IA conformi ai principi di trasparenza e informazione richiesti dal GDPR.

L'attività di auditing legale volta ad esaminare l'algoritmo e il modello decisionale implementato dai sistemi IA, si fonda su alcuni pilastri:

  • ARCHITETTURA DELL'ALGORITMO: si valuta, tra le altre, la complessità dell'algoritmo, possibili usi secondari, i set di dati che lo alimentano, l'implementazione o meno di logiche di machine learning;
  • OPERATION: si valuta, tra le altre, i dati necessari per le decisioni automatizzate, le possibili attività di profilazione, l'eventuale condivisione dell'output a terze parti;
  • OUTPUT: si valuta, tra le altre, il tipo di output fornito dall'algoritmo, se l'output è prodotto in forma comprensibile e accessibile all'utente e se viene fornito un meccanismo di feedback per l'utente;
  • IMPLEMENTATION: si valuta, tra le altre, gli scopi del processo decisionale automatizzato e la possibilità o meno dell'intervento umano nel corso dell'intero processo.

Da ultimo si offrono una serie di soluzioni condivise con il Cliente, al fine di conformarsi all'art. 22 GDPR, che richiede una serie di requisiti in caso di trattamenti di dati personali interamente automatizzati: dal diritto di ottenere l'intervento umano da parte del titolare del trattamento, al diritto di esprimere la propria opinione e di contestare la decisione automatizzata.

La piena conformità al GDPR rappresenta un elemento di competitività sul mercato per qualsiasi organizzazione che voglia fare dell'innovazione il suo core business. Il grado di sensibilizzazione raggiunto dagli utenti sul tema privacy e i nuovi scenari imposti dalle grandi corporation (come Apple), impongono un cambio di passo sul grado di maturità dei sistemi IA, che devono essere rispettosi dei principi (privacy by design) previsti dal Regolamento Europeo


Hai bisogno di assistenza legale?

Siamo pronti a fornirti un supporto concreto per difendere in ogni sede i tuoi diritti.
Contattaci