Cenc computers
Image default
Aanbiedingen

Machine Learning bij Google: wat is er nieuw?

google training 

Het bedrijf noemt machine learning een nieuw paradigma, waarbij je, in plaats van een computer te programmeren om katten, honden of auto’s te herkennen, een database kunt verzamelen waarin hun afbeeldingen dienovereenkomstig worden gemarkeerd en door een neuraal netwerk worden gestuurd. Deze laatste zal in eerste instantie fouten maken, omdat het vanaf het begin niets weet, maar de verkeerde informatie aan de uitgang ontvangt, het neurale netwerk kan enigszins worden aangepast, de resultaten worden aangepast en op deze manier worden getraind. Hierdoor leert ze objecten herkennen in de beelden waarop ze studeert. Maar het meest interessante is dat als je een foto niet vanuit de database door hetzelfde neurale netwerk laat lopen, bijvoorbeeld een nieuwe foto van een hond, hij die toch met grote waarschijnlijkheid zal kunnen herkennen. Het resultaat is een systeem dat afbeeldingen kan classificeren, alleen getraind door voorbeelden. En op dezelfde manier kunnen neurale netwerken een groot aantal problemen oplossen. Tegenwoordig gebruikt Google machine learning in Gmail, Google Translate, GBoard-toetsenbord en andere producten, maar is niet van plan daar te stoppen.

Het bedrijf begon Neural architecture search (NAS) te gebruiken om de creatie van kunstmatige neurale netwerkmodellen te automatiseren. Dit jaar introduceerde Google het terugkerende neurale netwerk AutoML, dat er feitelijk mee te maken heeft dat je hiermee een neuraal netwerk kunt creëren om je problemen op te lossen zonder speciale kennis.

Google heeft al een bètaversie van de Cloud AutoML-service gelanceerd, waarmee u uw eigen neurale netwerken kunt maken en deze kunt trainen om de nodige problemen op te lossen. De service omvat momenteel producten zoals Cloud Vision (beeldherkenning), Cloud Natural Language (tekstanalyse) en Cloud Translation (vertaling).

Google noemt de zaak van de Zoological Society of London (ZSL) als voorbeeld van Cloud AutoML, dat Cloud Vision gebruikt om beelden te analyseren die zijn vastgelegd met cameravallen. De organisatie houdt zich bezig met het behoud van dieren in het wild, maar om dieren te beschermen tegen menselijke blootstelling, moet u eerst bepalen welke soorten gevaar lopen, wat hen bedreigt en waar ze zich bevinden. Om dit te doen, gebruikt ZSL cameravallen die zijn uitgerust met bewegings- en hittesensoren, waarmee u foto’s van dieren kunt maken, maar ook van mensen die mogelijk stropers zijn. In het verleden hebben medewerkers van organisaties handmatig afbeeldingen getagd en gecatalogiseerd, wat veel tijd kostte. Met AutoML konden ze nu hun eigen neurale netwerkarchitecturen creëren die het type dier in de afbeelding kunnen bepalen en de gegevensanalyse aanzienlijk kunnen versnellen.

Het neurale netwerk komt er wel uit

De noodzaak om gegevens handmatig te taggen voor het trainen van neurale netwerken is een van de beperkingen tijdens het trainen. In sommige gevallen is het echter mogelijk om dit proces te automatiseren.

Leerbeperkingen met een leraar en of neurale netwerken deze kunnen omzeilen

Zoals hierboven al duidelijk is, zijn voor het trainen van neurale netwerken meestal gegevens nodig die als voorbeeld kunnen dienen. Onderzoekers noemen deze aanpak lesgeven met een leraar en hij is momenteel degene die achter de belangrijkste successen van Google op het gebied van kunstmatige intelligentie staat. Het bedrijf noemt het zelfs het ‘werkpaard’ van machine learning.

Lesgeven met een leraar heeft echter verschillende beperkingen:

Als oplossing voor de eerste beperking van Google geven ze een voorbeeld waarbij een robot moet leren hoe hij vloeistof van het ene vat naar het andere kan overbrengen. Om dit te doen, krijgt hij een video te zien waarin een persoon vanuit verschillende invalshoeken “Cola” in een glas giet. Tegelijkertijd heeft de robot zelf verschillende omstandigheden, hij moet gekleurde ballen van de ene kop naar de andere gieten. In feite is dit ook een training met een leraar, maar de computer die de robot bestuurt, moet zelfstandig begrijpen welke acties moeten worden uitgevoerd om de taak te voltooien. Dat wil zeggen, hij moet in de eerste plaats leren bepalen wat gemeenschappelijk is tussen verschillende videoframes en hoe ze verschillen, en ten tweede om menselijke bewegingen te imiteren.

De tweede beperking van begeleid leren leidt ertoe dat de computer het resultaat dat wordt getoond kopieert, maar kan het iets nieuws creëren? Creatief zijn? Google doet al geruime tijd onderzoek naar dit onderwerp in het kader van het Magenta-project en ontwikkelt kunstmatige neurale netwerken die leren kunst en muziek te maken.

Google heeft ook een Sketch-RNN-experiment binnen Magenta, waarmee je een tekening kunt starten en het neurale netwerk het voor je afmaakt. Je kunt bijvoorbeeld proberen de Mona Lisa te tekenen, het blijkt erg grappig.

Het laat echter live zien dat een neuraal netwerk niet zomaar iets kan kopiëren, maar iets nieuws kan creëren.

De laatste beperking van begeleid leren is dat de resultaten niet verbeteren ten opzichte van demonstratie. In dit geval komt bekrachtigingstraining te hulp, en als het eenvoudiger is, dan vallen en opstaan.

Als gevolg hiervan hebben neurale netwerken tegenwoordig nog steeds voorbeelden nodig voor training, maar ze hoeven niet langer het gewenste resultaat aan te geven, ze kunnen de voorbeelden op een creatieve manier combineren en de demonstraties overtreffen.

https://www.webdeveloper.today/2020/12/django-translation-commonly-used.html

https://webdevelopmentapp.com/nl/online-marketing.html