×

我們使用cookies幫助改善LingQ。通過流覽本網站,表示你同意我們的 cookie 政策.


image

DR P3 Essensen Nyheder, Sådan spotter du en deepfake

Sådan spotter du en deepfake

Skal du glo? Hvad?

Det er ikke svært at se, at de videoer er falske.

Det er deepfakes. Man har lagt et ansigt oven på et andet.

En slags photoshop for video eller en face swap.

De udvisker grænsen mellem sandt og falsk.

Det er vigtigt at kunne gennemskue, hvad der er manipuleret.

De er lavet af kunstige intelligenser eller AIs -

- igennem "deep learning". Deraf navnet deepfake.

Deep learning lærer en computer at løse opgaver gennem gentagelser.

Den kunstige intelligens forsøger at generere data såsom billeder.

En anden del af den vurderer, om billedet er ægte eller genereret.

Genererede billeder sendes tilbage til første del for at forbedres.

Det fortsætter, indtil den ikke kan skelne mellem de to.

Man skal bruge to ting: en masse billeddata og en masse tid.

Jo mere billeddata og især med forskellige udtryk og vinkler -

- jo bedre bliver computeren til at genskabe ansigter.

Det tager en masse tid for computeren at lære at genskabe ansigter.

Det kan tage dage eller uger selv med de bedste grafikkort.

Teknologien er primært blevet brugt til kun to ting. Memes ...

Og så til porno. Det er ulovligt at bruge folks ansigter -

- til porno, de ikke har valgt at spille med i. Det er ikke cool.

Der er en tredje måde at bruge den her teknologi:

Deepfakes, der udfordrer demokratiet og mediernes troværdighed.

De er frygtede, for man kan få enhver til at fremstå, som man ønsker.

Kan man så overhovedet stole på sine egne øjne længere.

Deepfakes kan gøre fake news mere overbevisende -

- og misinformation nemmere at tro på -

- især hvis det taler ind i ens verdenssyn.

Det kaldes et ekkokammer, og det har vi også lavet en video om.

En anden trussel ved deepfakes er, at de kan gøre folk overskeptiske.

Man kan se en ægte video og alligevel sige: "Den er falsk."

Det kan den jo lige så godt være.

Det er nemmere at fraskrive sig det, der afviger fra ens holdninger.

Babyer græder for meget, og alle i verden skal have 5 mia. kr.

De fleste kan nok se, at der er noget galt med videoen.

Den deepfake lavede DR's So ein Ding af Lars Løkke for under to år siden.

Teknologien har udviklet sig siden -

- og moderne deepfakes springer ikke så meget i øjnene.

Man skal se efter små detaljer for at se, om det er manipuleret.

Den første ting er, om man kan se omridset af masken.

Altså en kant om ansigtet. Enten matcher hudfarven ikke -

- eller også er opløsningen anderledes.

Tænder ligner én hvid plade i stedet for enkelte tænder.

Læg også mærke til, om skæg er tydeligt og naturligt.

En hånd foran ansigtet kan få det hele til at smelte sammen.

Læg mærke til lys og skygger.

Falder skygger som forventet og reflekterer briller lys rigtigt?

Mange af de her fejl kan skjules, hvis videoens kvalitet er dårlig.

Og detaljerne bliver svære at se på en lille skærm, fx en smartphone.

De klassiske fejl, vores praktikant lavede i de første eksempler -

- findes ikke i overbevisende deepfakes.

De bedste af dem kan kun gennemskues af en anden kunstig intelligens.

En usynlig kamp mellem maskiner.

Facebook har sat en AI til at gennemsøge siden for deepfakes.

Dem, der laver deepfakes, er altid et trin foran dem, der skal opdage dem.

Vores bedste våben er altså, når vi tænker over -

- om personen i videoen virkelig ville sige det, vi hører dem sige.

Sådan spotter du en deepfake ||||deepfake So erkennen Sie einen Deepfake How to spot a deepfake 딥페이크 식별 방법

Skal du glo? Hvad? ||stare| Are you going to stare? What are you looking at?

Det er ikke svært at se, at de videoer er falske. It's not hard to see that these videos are fake.

Det er deepfakes. Man har lagt et ansigt oven på et andet. ||deepfakes||||||||| These are deepfakes. One face has been superimposed on top of another.

En slags photoshop for video eller en face swap. |type|photo editing||||||swap A kind of photoshop for video or a face swap.

De udvisker grænsen mellem sandt og falsk. |erases||||| They blur the line between true and false.

Det er vigtigt at kunne gennemskue, hvad der er manipuleret. |||||see through||||manipulated It's important to be able to recognize what has been manipulated.

De er lavet af kunstige intelligenser eller AIs - |||||intelligences||AIs They are made by artificial intelligences or AIs

- igennem "deep learning". Deraf navnet deepfake. |deep|learning|Thereof||deep fake - through "deep learning". Hence the name deepfake.

Deep learning lærer en computer at løse opgaver gennem gentagelser. |||||||||repetitions Deep learning teaches a computer to solve tasks through repetition.

Den kunstige intelligens forsøger at generere data såsom billeder. |||||||such as| The artificial intelligence attempts to generate data such as images.

En anden del af den vurderer, om billedet er ægte eller genereret. |||||||||||generated Another part of it assesses whether the image is real or generated.

Genererede billeder sendes tilbage til første del for at forbedres. Generated||sent|||||||be improved Generated images are sent back to the first part for enhancement.

Det fortsætter, indtil den ikke kan skelne mellem de to. ||||||distinguish||| This continues until it can't distinguish between the two.

Man skal bruge to ting: en masse billeddata og en masse tid. |||||||image data|||| You need two things: a lot of image data and a lot of time.

Jo mere billeddata og især med forskellige udtryk og vinkler - ||image data|||||||angles The more image data and especially with different expressions and angles

- jo bedre bliver computeren til at genskabe ansigter. |||the computer|||to recreate|faces - the better the computer becomes at recreating faces.

Det tager en masse tid for computeren at lære at genskabe ansigter. ||||||||||recreate|faces It takes a lot of time for the computer to learn how to recreate faces.

Det kan tage dage eller uger selv med de bedste grafikkort. ||||||||||graphics cards It can take days or weeks even with the best graphics cards.

Teknologien er primært blevet brugt til kun to ting. Memes ... |||||||||funny images The technology has primarily been used for only two things. Memes...

Og så til porno. Det er ulovligt at bruge folks ansigter - |||porn|||illegal|||people's|faces And then to porn. It's illegal to use people's faces

- til porno, de ikke har valgt at spille med i. Det er ikke cool. |||||||||||||not cool - to porn they didn't choose to star in. That's not cool.

Der er en tredje måde at bruge den her teknologi:

Deepfakes, der udfordrer demokratiet og mediernes troværdighed. |||||the media's|credibility Deepfakes that challenge democracy and media credibility.

De er frygtede, for man kan få enhver til at fremstå, som man ønsker. ||feared||||||||appear||| They are feared because you can make anyone look the way you want.

Kan man så overhovedet stole på sine egne øjne længere. ||||||||eyes| Can you even trust your own eyes anymore?

Deepfakes kan gøre fake news mere overbevisende - |||fake|||convincing Deepfakes can make fake news more convincing

- og misinformation nemmere at tro på - - and misinformation easier to believe

- især hvis det taler ind i ens verdenssyn. - especially if it speaks to your worldview.

Det kaldes et ekkokammer, og det har vi også lavet en video om. It's called an echo chamber, and we've also made a video about it.

En anden trussel ved deepfakes er, at de kan gøre folk overskeptiske. |||||||||||overly skeptical Another threat of deepfakes is that they can make people superstitious.

Man kan se en ægte video og alligevel sige: "Den er falsk." ||||genuine|||still|||| You can watch a real video and still say: "It's fake."

Det kan den jo lige så godt være. It might as well be.

Det er nemmere at fraskrive sig det, der afviger fra ens holdninger. ||||disavow||||deviates|||opinions It's easier to disclaim what differs from your beliefs.

Babyer græder for meget, og alle i verden skal have 5 mia. kr. Babies|cries|||||||||| Babies cry too much and everyone in the world should get DKK 5 billion.

De fleste kan nok se, at der er noget galt med videoen. Most people can see that there's something wrong with the video.

Den deepfake lavede DR's So ein Ding af Lars Løkke for under to år siden. ||||So|a|thing|||||||| DR's So ein Ding made the deepfake of Lars Løkke less than two years ago.

Teknologien har udviklet sig siden - The technology||developed|| Technology has evolved since then

- og moderne deepfakes springer ikke så meget i øjnene. |modern|modern deepfakes|stands out|||||the eyes - and modern deepfakes don't stand out as much.

Man skal se efter små detaljer for at se, om det er manipuleret. ||||||||||||manipulated You have to look for small details to see if it's been manipulated.

Den første ting er, om man kan se omridset af masken. ||||||||outline|| The first thing is whether you can see the outline of the mask.

Altså en kant om ansigtet. Enten matcher hudfarven ikke - ||||the face||matches|skin color| In other words, a border around the face. Either the skin color doesn't match

- eller også er opløsningen anderledes. |||the solution| - or the resolution is different.

Tænder ligner én hvid plade i stedet for enkelte tænder. |||white|plate||||| Teeth look like one white plate instead of individual teeth.

Læg også mærke til, om skæg er tydeligt og naturligt. lay|||||beard||||naturally Also notice if the beard is distinct and natural.

En hånd foran ansigtet kan få det hele til at smelte sammen. |hand|||||||||melt| A hand in front of the face can make it all come together.

Læg mærke til lys og skygger. Notice the light and shadows.

Falder skygger som forventet og reflekterer briller lys rigtigt? |shadows||||reflects|glasses|light|correctly Do shadows fall as expected and do glasses reflect light correctly?

Mange af de her fejl kan skjules, hvis videoens kvalitet er dårlig. ||||||can be hidden||the video's||| Many of these errors can be hidden if the quality of the video is poor.

Og detaljerne bliver svære at se på en lille skærm, fx en smartphone. |the details||||||||screen|||smartphone And the details become hard to see on a small screen, such as a smartphone.

De klassiske fejl, vores praktikant lavede i de første eksempler - |classic|||intern||||| The classic mistakes our intern made in the first examples

- findes ikke i overbevisende deepfakes. |||convincing| - is not available in convincing deepfakes.

De bedste af dem kan kun gennemskues af en anden kunstig intelligens. ||||||see through|||||intelligence The best of them can only be seen through by another AI.

En usynlig kamp mellem maskiner. |invisible|invisible battle||machines An invisible battle between machines.

Facebook har sat en AI til at gennemsøge siden for deepfakes. ||||AI|||search|page||deepfakes Facebook has set an AI to crawl the site for deepfakes.

Dem, der laver deepfakes, er altid et trin foran dem, der skal opdage dem. |||||||step|||||detect them| Deepfakes are always one step ahead of those who need to discover them.

Vores bedste våben er altså, når vi tænker over - So, our best weapon is when we think about

- om personen i videoen virkelig ville sige det, vi hører dem sige. |||||||||hear|| - whether the person in the video would really say what we hear them say.