Jump to content

Με την επερχόμενη NPU της, η Samsung υπόσχεται «on-device» ΑΙ με χαμηλότερη κατανάλωση


Maxtor

Recommended Posts

1.jpg.b352eacbade7f51154b359759b8254b6.j

Πολλές φορές, η AI στις συσκευές ευρείας κατανάλωσης, βρίσκεται στο cloud, και αυτό έχει συνέπειες στην ασφάλεια, στην ιδιωτικότητα ή στην απόδοση. Στην βιομηχανία των κινητών, υπάρχει τελευταία η τάση να μεταφερθεί μέρος του AI processing εντός των συσκευών, και η Samsung φαίνεται πως επιθυμεί να υποστηρίξει αυτή τη τάση.

Η Νοτιοκορεάτικη εταιρεία, στην ανακοίνωση της για τη νέα της On-Device AI τεχνολογία μας υπενθυμίζει ότι οι αλγόριθμοι βαθιάς εκμάθησης αποτελούν βασικό στοιχείο της Τεχνητής Νοημοσύνης (AI) και ότι μία μονάδα νευρωνικής επεξεργασίας (NPU, Neural Processing Unit) είναι ένας επεξεργαστής βελτιστοποιημένος για την εκτέλεση αλγόριθμων βαθιάς εκμάθησης και έχει σχεδιαστεί για να πραγματοποιεί αποτελεσματικά χιλιάδες τέτοιους υπολογισμούς ταυτόχρονα. Στο συνέδριο Computer Vision & Pattern Recognition (CVPR), η εταιρεία παρουσίασε τον νέο της ελαφρύ αλγόριθμο On-Device AI και μαζί μία εργασία με τον τίτλο «Learning to Quantize Deep Networks by Optimizing Quantization Intervals With Task Loss». Ο νέος αυτός αλγόριθμος της Samsung είναι τέσσερις φορές ελαφρύτερος και οκτώ φορές ταχύτερος από τις υπάρχουσες λύσεις και εκτιμάται ότι θα παίξει βασικό ρόλο για την επίλυση πιθανόν ζητημάτων σε χαμηλής κατανάλωσης και υψηλής ταχύτητας computations.

Την ελαφριά τεχνολογία On-Device AI που πραγματοποιεί υπολογισμούς οκτώ φορές ταχύτερα από τα τωρινά 32-bit deep learning data για διακομιστές ανέπτυξε το Ινστιτούτο Προηγμένης Τεχνολογίας της Samsung (Samsung Advanced Institute of Technology, SAIT). Η εταιρεία λέει ότι στα παραδοσιακά computational μοντέλα, τα δεδομένα βαθιάς εκμάθησης είναι ομαδοποιημένα σε 32bits, απαιτώντας περισσότερο «υλικό» από άποψη αριθμού τρανζίστορς, που με τη σειρά του καταναλώνει περισσότερη ενέργεια. Αυτό βεβαίως δεν αποτελεί ζήτημα για τα κινητά με ισχυρούς επεξεργαστές και μεγάλες μπαταρίες, ωστόσο αφήνει εκτός πολλές άλλες συσκευές, ενώ επιπλέον προσθέτει περιττή κατανάλωση ενέργειας, ενέργεια που θα μπορούσε να χρησιμοποιηθεί σε πιο σημαντικές λειτουργίες.

OnDevice-AI_main1-730x563.jpg.2dcbd8478136ac058dafd10bb1c168ee.jpg

Η έρευνα της Samsung στο Ινστιτούτο Προηγμένης Τεχνολογίας που διατηρεί ότι με την απλή ομαδοποίηση των δεδομένων σε 4bits και με την διατήρηση της ακρίβειας δεδομένων, οι απαιτήσεις για hardware και ισχύ μπορούν να μειωθούν σημαντικά για το deep learning. Η τεχνολογία εκμάθησης που ονομάζει Quantization Interval Learning μπορεί μάλιστα πολλές φορές να είναι ακόμα πιο ακριβής –on-device- από το να μεταφέρεις τα δεδομένα από servers. Και όλα τα παραπάνω με το 1/40 έως και 1/120 του αριθμού των τρανζίστορς. Αυτό σημαίνει ότι το AI processing πια είναι εφικτό στο ίδιο το κινητό και προτιμότερο από την μεταφόρτωση του σε κάποιον απομακρυσμένο διακομιστή. Έτσι, όχι μόνο μειώνεται η υστέρηση στην απόκριση αφού όλα γίνονται από την ίδια την συσκευή, αλλά επιπλέον μειώνεται και ο κίνδυνος υποκλοπής.

Η on-device AI τεχνολογία της Samsung μπορεί να μειώσει σημαντικά το κόστος για λειτουργίες AI και μπορεί να παίξει σημαντικό ρόλο στην εικονική πραγματικότητα, στην αυτόνομη οδήγηση, στην βιομετρική ταυτοποίηση μέσω αναγνώρισης προσώπου, σάρωσης δακτυλικών αποτυπωμάτων ή ίριδας, στην αναγνώριση αντικειμένων κ.ά. Για την ώρα η Samsung έχει ανακοινώσει την τεχνολογία που βρίσκεται πίσω από την επερχόμενη NPU της, και όχι λεπτομέρειες για την ίδια την μονάδα επεξεργασίας. Λογικά, θα μάθουμε περισσότερα για την NPU σύντομα που θα βρεθεί αναμφισβήτητα σε νέες συσκευές της εταιρείας.

OnDevice-AI_main2-768x1010.jpg.00704646fd4dd4594b32670a7d091055.jpg

SlashGear

Samsung

View the full article

Link to comment
Share on other sites

Please sign in to comment

You will be able to leave a comment after signing in



Sign In Now


×
×
  • Create New...