Media en digitale samenleving
LES 27/09: introductie + les 1 AI
Intro korfvakken (zie ppt)
Les 1 AI (ppt)
Die auto’s werken niet enkel door AI, je kan alleen maar AI gebruiken als er voldoende resources zijn.
Je hebt voldoende data nodig. Naast AI (hersenen) genoeg data (= IoT)
Technology 1 : internet of things
“The Internet of Things (IoT) is the network of physical objects, devices, vehicles, buildings
and other items which are embedded with electronics, software, sensors, and network
connectivity, which enables these objects to collect and exchange data.”
Een manier om objecten en devices via netwerken met elkaar verbinden zodat we software
en sensoren via netwerk connectiviteit bij elkaar krijgen en zo dingen kunnen doen
Data verzenden van één systeem naar andere
Geschiedenis
o 1974
eerste IOT device was de bankautomaat
Eerste device dat aan een netwerk hing en zo via
software dingen kon checken die op je kaart staan
o 2008
Tot 2008 internet enkel voor ons (gsm aan ons
verbonden)
Daarna omgeslagen naar objecten die geconnecteerd zijn met internet
o Zelfs kleren verbonden aan internet
o Dia 26: we zien dat technologie belangrijker wordt
o Dia 28: IoT nodig in bedrijven net zoals het internet
Wat is het?
o Sensoren
Heel wat nieuwe sensoren ontstaan
Het zijn geen zaken die we vroeger niet konden
Verbruiken veel minder energie dan vroeger
Veel makkelijker toepassen voor langere periode (minder snel
batterij)
o Communicatie
Veel meer personen krijgen een device geconnecteerd met
het internet
Meer connectiviteit bij individuen
Tomorrow land: bandjes aan en uit gecontroleerd
Hoe connecteren we al die devices?
Verschillende frequenties
5G voor elke specifieke taak een andere band
o Software
App stuurt data door naar centrale server, niet directe connectie
Gsm die signalen uitsturen
Probleem 1
Programma op video identificeren (zoveel procent kans dat het een
mens is)
Je hebt daar heel wat rekenwerk voor nodig
, Rekenwerk gebeurt door de auto niet door data
Moeten we het lokaal doen of versturen naar een data center en dan
terugsturen
Hebben we wel de tijd omdat te versturen of moeten we het lokaal
doen
Probleem 2
Deeltjesversneller
Sensor die gaat kijken wat er gebeurt als we twee deeltjes samen
mengen
Wanneer al die data van de sensor naar het data centrum wilde
sturen ging niet was teveel data
Dus ze hebben lokaal al een aantal berekeningen gedaan door de
nuttige data te versturen
Dat moeten we ook doen bij IOT
Systeem met tussenstations enkel relevante data naar centrale omgeving
Dia 49: van lokaal naar data steeds kleiner en kleiner
Technology 2: AI
AI
o AI is een verzameling van technieken die bepaalde intelligentie gaat nabootsen
o Je spreekt van AI vanaf dat een device een beslissing kan nemen waarvan we niet
kunnen of dit door de mens was of
door machine
Machine learning (onderdeel AI)
o Als we software schrijven gaan we zelf
regels intypen
o ML kunnen we voeden met data en zo
gaat de technologie zelf leren
beslissingen te nemen
Deep learning (onder AI)
o Doordat onze data centers zo groot zijn
o complexe netwerken met diepe lagen
Machine learning kan op verschillende manieren
o Supervised: foto’s classificeren van honden en katten, foto geven aan device en jij
gaat het hem leren
o Unsupervised: zonder dat er structuur is (je weet niet wat een kat of een hond is) in
onze data toch conclusies trekken
o Reinforcement learning: iets leren en dan mislukt het, jezelf verbeteren met
feedback
o Transfer learning: van katten naar panda’s herkennen zullen er veel dingen
overeenkomen, dus eerste bestaande info halen uit netwerk
Neuraal netwerk
o Werking brein: een neuron geeft een impuls naar volgend neuron
o Foto als input voor neuraal netwerk, vanachter moet verteld worden in wat voor een
situatie we zitten
Learning
o Supervised learning gebruiken om probleem op te lossen
o Input bij elkaar op tellen komt een output uit
o Door onze zenuwbanen aan te passen kunnen we dingen leren
Reinforcement learning
o Agent krijgt reward door te zeggen of het goed of niet goed is
, Transfer learning
o Stuk netwerk hergebruiken
Werkt het? Ja, toch nog problemen
Technical challenges
o CHALLENGE 1: ACCUARCY OF ALGORITHMS
Beschrijft de foto’s niet accuraat genoeg
Vermijden dat er fouten gebeuren
Heel wat contexten waarvoor we accurater moeten zijn
o CHALLENGE 2: WE NEED SMALLER CHIPS
Kleinere chips, minder energie
o CHALLENGE 3: SPEED OF ALGORITHMS
Wij leren dat snel om een spelletje te spelen, een computer veel langer
o CHALLENGE 4: CONNECTIVITY
Hoe sneller wel hoe beter de connectiviteit
o CHALLENGE 5: DATA QUALITY
Bij metingen is er een kwaliteitsfactor
Hoe meer data hoe beter maar het moet wel van goede kwaliteit zijn
Alleen goede en slechte daar kan het iets mee doen, maar niet gemengd
o CHALLENGE 6: ENERGY
Ecologische voetafdruk moet kleiner om data te verbeteren
o CHALLENGE 7: DISTRIBUTED INTELLIGENCE
Samen als 1 groep ergens naar toe werken
o CHALLENGE 8: STAYING IN CONTROL
We moeten controleren houden over de devices
Kan lijken alsof het optimaliseert, maar eigenlijk is het niet
Pitfalls
o PITFALL 1: CHANGE MANAGEMENT
De uitlaat van de paarden was een probleem
Auto wilde niemand gebruiken omdat iedereen zijn eigen paard vertrouwde
o PITFALL 2: MISUSE
President Obama laten spreken in een video die levensecht lijkt
o PITFALL 3: BIAS/EXPLAINABILITY
Meer blank dan zwarte mannen
De geschiedenis is oneerlijk
Onethische beslissingen
AI niet racistisch maar gebruikt onze racistische data
Op een goede manier opgaan met risico’s en ethiek
o PITFALL 4: FEAR
Autonome auto’s gevaarlijk, met bestuurder niet veel beter
Als die minder fouten maakt dan wij zelf zouden doen dan is het goed
Hoe passen we AI toe?
o Perceptie
Vanuit een foto detecteren wat een object of iemand is
o Representatie
Voorstelling maken van u wereld
o Genereren
Beschrijving en geeft dan zelf foto’s
o Controle
LES 4/10: Zelfstudie AI
, Tekst taalmodellen
Definitie van LLM’s (large language models)
o Grote taalmodellen zijn geavanceerde AI-systemen die gebruikmaken van enorme
hoeveelheden gegevens en geavanceerde algoritmen om menselijke taal te
begrijpen, te interpreteren en te genereren. Ze zijn voornamelijk gebouwd met
behulp van diepgaand leren technieken, met name neurale netwerken, waarmee ze
grote hoeveelheden tekstgegevens kunnen verwerken en ervan kunnen leren
Belang en toepassingen van LLM’s
o Tekstgeneratie en aanvulling
o Machine vertaling: automatisch van de ene taal naar andere vertalen
o Sentimentanalyse: bepalen van emotie uitgedrukt door tekst
o Vraag en antwoord systemen
o Chatbots en gespreksagenten
o Tekstsamenvatting
o Natuurlijke taalinterface voor data bases
o Inhoud generen en parafraseren
o Hulp bij generen van codes en programmeren
o Onderwijs en onderzoek
Korte geschiedenis van LLM ontwikkeling
o Hun snelle evolutie begon echter met de komst van deep learning-technieken en de
introductie van de Transformer-architectuur in 2017.
o Evolueren naar meer krachtige modellen GPT, BERT,…
Sleutelconcepten en componenten van LLM’s
o NLP begrijpen
Natural Language Processing is een deelgebied van kunstmatige intelligentie
dat zich richt op de ontwikkeling van algoritmen en modellen die menselijke
taal kunnen begrijpen, interpreteren en genereren.
NLP heeft tot doel de kloof tussen menselijke communicatie en
computerbegrip te overbruggen, waardoor machines tekst- en
spraakgegevens kunnen verwerken en analyseren op een manier die
menselijk begrip nabootst.
o Neurale netwerken en diep leren
~ menselijk brein
Diep leren is een deelgebied van machine learning dat zich richt op het
gebruik van diepe neurale netwerken (DNN's) met veel lagen. De diepte van
deze netwerken stelt hen in staat om hiërarchische representaties van
gegevens te leren, wat vooral gunstig is voor taken zoals NLP, waar het
begrijpen van de relaties tussen woorden, zinsdelen en zinnen cruciaal is.
o Overdracht van leren in LLM’s
o Transformator-architectuur
Dankzij het zelfaandachtsmechanisme binnen de Transformer-architectuur
kunnen LLM's invoerreeksen parallel verwerken in plaats van opeenvolgend,
wat resulteert in snellere en efficiëntere training. Bovendien stelt de
architectuur het model in staat om langdurige afhankelijkheden en relaties
binnen de tekst vast te leggen, wat van vitaal belang is voor het begrijpen
van de context en het genereren van coherente taal
Prominente LLM’s en hun mijlpalen
o GPT-serie
Elke iteratie van de GPT-serie bouwt voort op de fundamenten van zijn
voorgangers en bereikt nieuwe niveaus van prestaties en mogelijkheden.
The benefits of buying summaries with Stuvia:
Guaranteed quality through customer reviews
Stuvia customers have reviewed more than 700,000 summaries. This how you know that you are buying the best documents.
Quick and easy check-out
You can quickly pay through credit card or Stuvia-credit for the summaries. There is no membership needed.
Focus on what matters
Your fellow students write the study notes themselves, which is why the documents are always reliable and up-to-date. This ensures you quickly get to the core!
Frequently asked questions
What do I get when I buy this document?
You get a PDF, available immediately after your purchase. The purchased document is accessible anytime, anywhere and indefinitely through your profile.
Satisfaction guarantee: how does it work?
Our satisfaction guarantee ensures that you always find a study document that suits you well. You fill out a form, and our customer service team takes care of the rest.
Who am I buying these notes from?
Stuvia is a marketplace, so you are not buying this document from us, but from seller axelleleuridan. Stuvia facilitates payment to the seller.
Will I be stuck with a subscription?
No, you only buy these notes for $21.75. You're not tied to anything after your purchase.