• Posted 17-Feb-2020

Artificial intelligence: tackling the risks for consumers

Artificial intelligence and automated decision making processes can pose certain threats to consumers. Find out how the European Parliament wants to protect them.

What is artificial intelligence and why can it be dangerous?

As learning algorithms can process data sets with precision and speed beyond human capacity, artificial intelligence (AI) applications have become increasingly common in finance, healthcare, education, the legal system and beyond. However, reliance on AI also carries risks, especially where decisions are made without human oversight. Machine learning relies on pattern-recognition within datasets. Problems arise when the available data reflects societal bias.

Artificial Intelligence in decision-making processes

AI is increasingly involved in algorithmic decision systems. In many situations, the impact of the decision on people can be significant, such as access to credit, employment, medical treatment, or judicial sentences. Automated decision-making can therefore perpetuate social divides. For example, some hiring algorithms have been found to be biased against women.

How to protect consumers in the era of AI

The development of AI and automated decision-making processes also presents challenges for consumer trust and welfare. When consumers are interacting with such a system, they should be properly informed about how it functions.

The position of the Parliament

In a resolution adopted on 23 January, the internal market and consumer protection committee urges the European Commission to examine whether additional measures are necessary in order to guarantee a strong set of rights to protect consumers in the context of AI and automated decision-making.

The Commission needs to clarify how it plans to:

  • ensure that consumers are protected from unfair and discriminatory commercial practices as well as from risks entailed by AI-driven professional services
  • guarantee greater transparency in these processes
  • ensure that only high-quality and non-biased datasets are used in algorithmic decision systems

Next steps
MEPs will vote on the  resolution in mid February. After that it will be transmitted to the Council and the Commission. The Commission should present its plans for a European approach to AI on 19 February.

Source: European Parliament News (http://bit.ly/2tK8cNI)

 

 

Τεχνητή Νοημοσύνη: αντιμετώπιση των κινδύνων και προστασία των καταναλωτών

Η τεχνητή νοημοσύνη και οι διαδικασίες αυτοματοποιημένης λήψης αποφάσεων κρύβουν πολλούς κινδύνους. Δείτε τι κάνει το ΕΚ για την προστασία των καταναλωτών.

Τι είναι η Τεχνητή Νοημοσύνη και γιατί μπορεί να είναι επικίνδυνη;

Η χρήση εφαρμογών τεχνητής νοημοσύνης γίνεται όλο και συχνότερη στην οικονομία, στην υγεία, στην εκπαίδευση, στο νομικό σύστημα και αλλού καθώς οι αλγόριθμοι μπορούν να επεξεργάζονται δεδομένα με ακρίβεια και ταχύτητα πέραν της ανθρώπινης ικανότητας. Ωστόσο, η εξάρτηση από την τεχνητή νοημοσύνη κρύβει κινδύνους, ειδικά όταν οι αποφάσεις λαμβάνονται χωρίς ανθρώπινη επίβλεψη. Οι αλγόριθμοι βασίζονται στην αναγνώριση μοτίβων μέσα από βάσεις δεδομένων. Για αυτό όταν οι βάσεις δεδομένων αντανακλούν τις κοινωνικές προκαταλήψεις προκύπτουν προβλήματα.


Η Τεχνητή Νοημοσύνη στις διαδικασίες λήψης αποφάσεων

Η τεχνητή νοημοσύνη εμπλέκεται όλο και περισσότερο στα συστήματα αλγοριθμικών αποφάσεων (ADS). Σε πολλές περιπτώσεις, ο αντίκτυπος μιας απόφασης ενδέχεται να έχει σημαντικές συνέπειες στην καθημερινότητα των ανθρώπων, σε τομείς όπως η πρόσβαση στην πίστωση, η εργασία, η ιατρική περίθαλψη, ή οι δικαστικές ποινές. Συνεπώς η αυτόματη λήψη αποφάσεων μπορεί να διαιωνίσει τις κοινωνικές ανισότητες. Για παράδειγμα, ορισμένοι αλγόριθμοι έχει αποδειχθεί ότι εκφράζουν τις προκαταλήψεις κατά των γυναικών


Η προστασία των καταναλωτών στην περίοδο της τεχνητής νοημοσύνης

Η ανάπτυξη της τεχνητής νοημοσύνης και οι αυτοματοποιημένες διαδικασίες λήψης αποφάσεων δημιουργούν νέες προκλήσεις όσον αφορά την εμπιστοσύνη και την ευημερία των καταναλωτών. Όταν οι καταναλωτές αλληλοεπιδρούν με τέτοια συστήματα, πρέπει να είναι σωστά ενημερωμένοι για τον τρόπο λειτουργίας τους.


Η θέση του Κοινοβουλίου

Με ψήφισμα που ενέκρινε στις 23 Ιανουαρίου η επιτροπή Εσωτερικής Αγοράς του ΕΚ προτρέπει την Επιτροπή να εξετάσει πρόσθετα μέτρα προκειμένου να διασφαλιστούν τα δικαιώματα των καταναλωτών στο πλαίσιο της τεχνητής νοημοσύνης και της αυτοματοποιημένης λήψης αποφάσεων.

Η Επιτροπή πρέπει να διευκρινίσει πώς σχεδιάζει:

  • να διασφαλίσει ότι οι καταναλωτές θα προστατεύονται από αθέμιτες ή / και προκατειλημμένες εμπορικές πρακτικές ή από κινδύνους που απορρέουν από υπηρεσίες που καθοδηγούνται από την τεχνητή νοημοσύνη.
  • να εγγυηθεί μεγαλύτερη διαφάνεια στις διαδικασίες αυτές
  • να διασφαλίσει ότι στα συστήματα αλγοριθμικών αποφάσεων θα χρησιμοποιούνται μόνο μη-μεροληπτικές και υψηλής ποιότητας βάσεις δεδομένων.

Τα επόμενα βήματα

Η συγκεκριμένη πρόταση τίθεται προς ψήφιση στην ολομέλεια του ΕΚ τον Φεβρουάριο 2020. Στη συνέχεια θα διαβιβαστεί στο Συμβούλιο και στην Ευρωπαϊκή Επιτροπή. Η τελευταία, θα πρέπει να παρουσιάσει τα σχέδιά της για την τεχνητή νοημοσύνη στις 19 Φεβρουαρίου 2020.

Πηγή: Νέα του Ευρωπαϊκού Κοινοβουλίου (http://bit.ly/2UHS9es)