Säkerhetspodcasten #110 - Säkerhet i Media med Linus Larsson
Lyssna
Innehåll
I dagens avsnitt intervjuas DNs Linus Larsson av vår flygande reporter Robin von Post om hur media hanterar frågor kring IT-Säkerhet, kring propaganda, valpåverkan och mycket annat.
Inspelat: 2017-11-07. Längd: 00:10:56.
Länkar
AI transkribering
AI försöker förstå oss… Ha överseende med galna feltranskriberingar.
1 00:00:00,100 --> 00:00:02,740
Hej och välkommen till Säkerhetspodcasten.
2 00:00:03,140 --> 00:00:07,860
Innan vi börjar dagens avsnitt skulle jag vilja tipsa om våra nya fina Säkerhetspodcasten-stickers
3 00:00:07,860 --> 00:00:11,160
som nu finns tillgängliga för alla våra lyssnare helt gratis.
4 00:00:11,840 --> 00:00:15,220
Det enda ni behöver göra för att få dem är att skicka ett frankerat kuvert till
5 00:00:15,220 --> 00:00:22,640
Assured AB Care of Säkerhetspodcasten på adressen Norra Lergatan 7 413 01 Göteborg
6 00:00:22,640 --> 00:00:26,600
så kommer en handfull nya fräscha-stickers som ett brev på posten inom ett par dagar.
7 00:00:26,600 --> 00:00:30,620
Det var alltså Norra Lergatan 7 413 01 Göteborg.
8 00:00:32,080 --> 00:00:33,580
Till dagens avsnitt då.
9 00:00:33,760 --> 00:00:37,500
Under hösten så har vi på Säkerhetspodcasten haft en reporter i fältet
10 00:00:37,500 --> 00:00:40,020
nämligen den eminente Robin von Post
11 00:00:40,020 --> 00:00:43,820
som har bandat en hel drös intervjuer på ett par konferenser i Stockholm.
12 00:00:44,760 --> 00:00:48,420
Vi skulle väldigt gärna vilja tacka Sectra som har lånat ut honom till oss
13 00:00:48,420 --> 00:00:52,740
och vill ni följa Robin så gör ni det enklast på at r von post på Twitter.
14 00:00:53,340 --> 00:00:56,200
Stort tack alltså till Sectra och till Robin.
15 00:00:56,600 --> 00:00:57,760
Nu rullar vi intervjun.
16 00:00:58,100 --> 00:00:58,980
Tack så mycket Johan.
17 00:00:59,500 --> 00:01:04,820
Jag står här på Nordic IT Security 2017 tillsammans med Linus Larsson
18 00:01:04,820 --> 00:01:09,060
direkt från DN, grävande journalist och teknisk redaktör.
19 00:01:09,180 --> 00:01:09,620
Kan det stämma?
20 00:01:09,840 --> 00:01:10,560
Ja visst, absolut.
21 00:01:11,400 --> 00:01:13,160
Vi ska se, vi ska höja…
22 00:01:13,160 --> 00:01:18,720
Vi pratade här om hur media kommer påverkas inför valet nu.
23 00:01:18,780 --> 00:01:20,280
Det är den heta punkten.
24 00:01:20,280 --> 00:01:24,980
Och kanske specifikt då kring IT-säkerhetsfrågan, hur vi kan skydda oss.
25 00:01:25,060 --> 00:01:26,580
Och du tog upp en ganska intressant punkt.
26 00:01:26,600 --> 00:01:30,580
Jag menar, ni har mycket källor, ni har mycket information som ni ska skydda.
27 00:01:30,740 --> 00:01:35,480
Hur jobbar ni aktivt med att bygga upp ett bra skydd av er verksamhet?
28 00:01:36,740 --> 00:01:43,600
Jag skulle säga att vi har ett ganska bra team av säkerhetsfolk som har…
29 00:01:45,380 --> 00:01:47,600
IT-säkerhetsfolk som…
30 00:01:48,640 --> 00:01:52,840
Jag tror det som har hänt är att de har fått en högre status på tidningen,
31 00:01:52,840 --> 00:01:55,420
på redaktionen och tidningen som organisation,
32 00:01:56,600 --> 00:01:58,560
men fler och fler begriper hur viktigt det här är.
33 00:01:58,760 --> 00:02:03,020
Jag tror att förut så kanske det som ansvarade för det var någon som satt lite grann i bakgrunden
34 00:02:03,020 --> 00:02:06,320
och gjorde något som folk kanske förstod var viktigt,
35 00:02:06,440 --> 00:02:08,680
men det var liksom inte kanske något man pratade om sådär.
36 00:02:08,680 --> 00:02:10,880
Jag ser mycket mer av ett samtalsämne idag,
37 00:02:11,360 --> 00:02:15,820
att hur man skyddar den känsligaste informationen
38 00:02:15,820 --> 00:02:19,860
och mycket, mycket större medvetenhet om vilka risker som skulle finnas.
39 00:02:20,540 --> 00:02:26,580
Man pratar ju mycket om propaganda och att vi har en aktör i Öster som försöker påverka både vårt beslutsförhållande,
40 00:02:26,600 --> 00:02:30,720
vårt beslutsfattande och vår beredskap om splittring i befolkningen.
41 00:02:31,540 --> 00:02:37,780
Hur hanterar ni det? För ni måste ju värdera era nyheter i förhållande till att andra kommer ut med nyheter också, antar jag.
42 00:02:38,620 --> 00:02:40,720
Ja, alltså…
43 00:02:40,720 --> 00:02:44,680
Jag menar, som seriösa medier ska man operera det som är sant och relevant.
44 00:02:44,840 --> 00:02:47,460
Det har liksom gällt i alla tider och det gäller precis lika mycket nu.
45 00:02:47,860 --> 00:02:53,540
Det man är medveten om är väl kanske att det finns aktörer som högst medvetna kampanjer
46 00:02:53,540 --> 00:02:56,440
och med ganska goda resurser skulle kunna…
47 00:02:56,440 --> 00:03:00,440
Det är en sätta försök att vilseleda.
48 00:03:00,820 --> 00:03:07,400
Men ibland tycker jag att när man diskuterar lite så låter det som att någon skulle bara kunna hitta på något och få ut.
49 00:03:07,400 --> 00:03:11,040
Alltså, så funkar det inte. Det är inte så jäkla lätt.
50 00:03:11,200 --> 00:03:13,400
Vi har ju alltid…
51 00:03:14,100 --> 00:03:20,660
Det finns otroligt många som vill ha insaker i tidningen som inte lyckats få det av helt olika anledningar.
52 00:03:20,840 --> 00:03:26,080
Så det är liksom inget nytt scenario egentligen att behöva stenhårt verifiera all information man tar del av.
53 00:03:26,440 --> 00:03:32,440
Men samtidigt så tävlar ni med de andra nyhetskanalerna, om vi kan kalla det det, med era nyheter.
54 00:03:32,640 --> 00:03:35,900
Vad är det som delas på sociala medier och så vidare?
55 00:03:36,340 --> 00:03:37,620
Och det känns som att det finns en törst.
56 00:03:38,020 --> 00:03:41,080
Alltså, falska nyheter finns det inte så många av.
57 00:03:41,180 --> 00:03:48,260
Så att de som använder dem för att verifiera sina egna synpunkter har ju en tendens att väldigt snabbt dela den typen av nyheter.
58 00:03:48,680 --> 00:03:51,500
Ja, absolut. Fast det betyder ju inte att vi går på det, så att säga.
59 00:03:53,320 --> 00:03:55,000
Det är ju naturligtvis så.
60 00:03:55,120 --> 00:03:55,840
Det är ju klart att det är en tävlan.
61 00:03:56,440 --> 00:04:02,200
Den som är först med stora nyheter, så har det ju faktiskt också alltid varit.
62 00:04:02,580 --> 00:04:07,740
Det finns sådär. Skulle man slarva i ett sådant fall så är det klart att det skulle kunna finnas någon som går på någonting bara för att det låter så bra.
63 00:04:07,740 --> 00:04:11,940
Men det där ligger så mycket i ryggmärgen hos seriösa medier.
64 00:04:12,320 --> 00:04:15,720
Det är att man inte bara kan tro på allting man hör.
65 00:04:15,920 --> 00:04:18,520
Idag kanske det är allting man hör på Twitter kan man inte tro på.
66 00:04:18,620 --> 00:04:21,540
Förut var det kanske allting som någon bara ringde in och tipsade om.
67 00:04:22,040 --> 00:04:23,360
Folk ringer fortfarande och tipsar för övrigt.
68 00:04:23,360 --> 00:04:33,560
Men det är mer av de här scenarierna som är bekanta än man skulle kunna tro.
69 00:04:33,840 --> 00:04:35,540
Möjligtvis kan det ta sig en annan skala.
70 00:04:35,740 --> 00:04:49,720
Det som kan hända med en sån här viral bluff eller fake news är att tack vare sociala medier framförallt, mest av allt Facebook, så kan de få en sån gigantisk spridning.
71 00:04:50,040 --> 00:04:52,960
De kan nå fler människor än vi.
72 00:04:53,360 --> 00:04:57,360
De kan nå fler människor på väldigt kort tid om de får en sån här delningssnurr.
73 00:04:58,480 --> 00:05:06,000
Där blir det mer som att vår roll blir ännu viktigare med att verifiera och kanske skjuta ner en sån story.
74 00:05:06,120 --> 00:05:10,560
Jag är stor vän av Viralgranskaren som har funnits ett par år nu.
75 00:05:10,660 --> 00:05:14,740
Det har funnits en massa sådana fact-checking-sajter just att ta fasta på.
76 00:05:14,740 --> 00:05:22,300
En gång i tiden hade man, när sådana rykten gick på stan, så hade man bara som tidning sagt att det där visade sig vara fel.
77 00:05:22,400 --> 00:05:23,340
Så vi skriver inte om det.
78 00:05:23,540 --> 00:05:26,380
Idag säger man att det där visade sig vara fel, så vi skriver att det var fel.
79 00:05:27,440 --> 00:05:31,060
Det är ju något som ändå har uppstått de senaste åren.
80 00:05:31,140 --> 00:05:35,920
Jag tror att det hänger ihop med att spridningen är mätbar när man har delningar.
81 00:05:36,280 --> 00:05:39,120
Förut var det så att alla pratade på stan om att något har hänt.
82 00:05:39,220 --> 00:05:40,940
Vi vet att det är falskt, så vi bara ignorerar det.
83 00:05:41,240 --> 00:05:44,220
Nu kan man säga att det här har fått 10 000 delningar på Facebook.
84 00:05:44,340 --> 00:05:46,580
Då måste man adressera och säga att det är falskt.
85 00:05:46,880 --> 00:05:49,800
Det är väl grunden för Viralgranskaren och alla sådana här fact-checking-sajter.
86 00:05:49,920 --> 00:05:51,140
Det tror jag är en sund utveckling.
87 00:05:51,400 --> 00:05:53,140
En annan punkt som du hade på…
88 00:05:53,360 --> 00:05:56,440
Men eldebatten var ju möjligheterna som blir med den nya teknologin.
89 00:05:56,600 --> 00:05:58,260
Alltså den digitala plattformen.
90 00:05:58,340 --> 00:06:03,420
Hur skulle du säga att den gynnar traditionell media i ett sådant här scenario?
91 00:06:05,540 --> 00:06:10,940
Möjligheten att publicera mer av källmaterial kan man göra.
92 00:06:11,000 --> 00:06:12,260
Vi gör väl inte det så jätteofta.
93 00:06:12,300 --> 00:06:13,320
Man skulle kunna göra det oftare.
94 00:06:13,400 --> 00:06:17,320
Ett helt dokument istället för att bara citera ur det.
95 00:06:17,320 --> 00:06:22,040
Man kan lägga en oredigerad intervju om man vill det.
96 00:06:22,200 --> 00:06:23,200
Man kan…
97 00:06:23,360 --> 00:06:25,260
Gå in…
98 00:06:25,260 --> 00:06:29,480
Man kan publicera fördjupande artiklar om någon komplicerad research som de flesta inte orkar läsa.
99 00:06:29,580 --> 00:06:34,840
Men vill man verkligen veta hur det gick till så kan man göra det.
100 00:06:35,000 --> 00:06:36,220
Det finns ju begränsningar dock.
101 00:06:36,520 --> 00:06:37,600
Och det är ju att…
102 00:06:37,600 --> 00:06:39,000
Ibland är det ju för känsligt.
103 00:06:39,780 --> 00:06:46,840
Jag och min kollega Christoffer Stadius gjorde i fjol en större granskning om ransomware till exempel.
104 00:06:47,480 --> 00:06:51,480
Och då gick vi igenom extrema mängder loggfiler.
105 00:06:51,480 --> 00:06:56,680
Och tog del av en hel del kod från inte…
106 00:06:56,680 --> 00:06:58,700
Man kan nog inte kalla det command and control-server.
107 00:06:58,780 --> 00:07:01,020
Men åtminstone hackade sajter som de använde.
108 00:07:01,800 --> 00:07:04,240
Så det var liksom POP-filer och databaser och sådana saker.
109 00:07:04,980 --> 00:07:09,640
Och väldigt mycket av sånt hjälpte oss att göra research och komma vidare och kartlägga hur det där fungerade.
110 00:07:09,780 --> 00:07:11,720
Och bitcoin-adressen spårade vi och hade sådär.
111 00:07:12,100 --> 00:07:13,120
Och där har jag tänkt i efterhand.
112 00:07:13,220 --> 00:07:15,460
Skulle man där ha lagt ut väldigt mycket mer?
113 00:07:15,580 --> 00:07:16,900
Kanske är det svårt att göra också.
114 00:07:16,900 --> 00:07:21,040
För det där är liksom loggfiler som vi har fått i förtroende för att kunna göra en research.
115 00:07:21,480 --> 00:07:24,040
Lägga ut hela dem skulle nog inte anses speciellt schysst.
116 00:07:24,180 --> 00:07:26,240
Så det finns ju också gränser för hur mycket man kan göra där.
117 00:07:26,320 --> 00:07:32,020
Men annars gillar jag tanken på att publicera bonusmaterial som är oredigerat.
118 00:07:32,280 --> 00:07:36,860
Som är hela källmaterialet rakt av.
119 00:07:38,140 --> 00:07:44,640
Vilka erfarenheter från USA och franska valet kring medias roll i den?
120 00:07:44,640 --> 00:07:48,680
Du hade ett exempel som sagt där du pratade om att nyheter är nyheter.
121 00:07:49,260 --> 00:07:51,440
Hur skulle man kunna hantera den situationen?
122 00:07:51,480 --> 00:07:53,480
Om vi går in i valår här nu?
123 00:07:53,780 --> 00:07:58,900
Ja, alltså det jag tog upp där var väl att amerikansk media ställdes inför ett scenario där
124 00:07:59,160 --> 00:08:06,320
det här materialet som nu finns tillgängligt ser ut att komma från ett allvarligt dataentrång.
125 00:08:06,580 --> 00:08:10,160
Vad det verkar som styrt av en statlig aktör.
126 00:08:10,420 --> 00:08:13,760
Och hur ska man då förhålla sig till det?
127 00:08:14,000 --> 00:08:21,180
Det amerikansk media gjorde, jag tror i alla fall, var att se det som är härsamt och verifierbart och intressant.
128 00:08:21,480 --> 00:08:25,060
Det är intressant information, då publicerar man det. Men man bevakar också dataentrånget.
129 00:08:25,320 --> 00:08:35,040
Och det är väldigt svårt att verkligen se vad som kommer att hända under det kommande året i Sverige.
130 00:08:35,300 --> 00:08:39,660
Men jag har stor förståelse för att amerikansk media landade i den slutsatsen.
131 00:08:39,920 --> 00:08:46,060
Man kan liksom inte ha någon idé att man låter bli att publicera information som är relevant.
132 00:08:46,320 --> 00:08:51,440
Då hamnar man i någon konstig sits där man liksom medvetet ska tycka.
133 00:08:51,740 --> 00:08:55,840
Om någon information som faktiskt är värd att berätta om.
134 00:08:56,080 --> 00:09:02,240
Om man blir i någon mening anklagad för att föra någon egen agenda så fort man börjar utföra sådana
135 00:09:02,480 --> 00:09:03,520
typer av bedömningar antar jag.
136 00:09:04,280 --> 00:09:10,420
Ja exakt, precis. Det enda man har för ögonen är om det är en intressant nyhet eller inte.
137 00:09:10,680 --> 00:09:15,800
Men jag tror att det klurades mycket på amerikanska redaktioner när man ställde sig inför
138 00:09:16,060 --> 00:09:19,380
den där typen av information.
139 00:09:19,640 --> 00:09:21,180
På det stora hela så gjorde
140 00:09:21,740 --> 00:09:27,880
de ett jäkligt bra jobb. Framförallt de stora amerikanska tidningarna gjorde väldigt mycket bra rapportering inför valet.
141 00:09:29,160 --> 00:09:31,720
En annan punkt som
142 00:09:31,980 --> 00:09:38,120
oftast pratas om med propaganda och dissimulation är ju disruption, att man försöker förstöra tekniska system
143 00:09:38,380 --> 00:09:42,480
och göra det nära service och så vidare. Hur kommer ni möta en sådan hotbild?
144 00:09:43,240 --> 00:09:49,380
Ja, det är inte jag som sitter och skruvar på servrarna för att kunna stå emot det. Men vi hade ju en ganska stor
145 00:09:51,480 --> 00:09:58,140
incident med en väldigt omfattande DDoS-attack som gjorde att vi inte fungerade.
146 00:09:58,900 --> 00:09:59,420
Och
147 00:10:00,440 --> 00:10:06,580
som jag sa på scenen nyss så vill inte jag dra förutsatsen att det är någon statlig aktör eller sådär
148 00:10:06,840 --> 00:10:08,380
utan det kan mycket väl vara
149 00:10:08,880 --> 00:10:11,700
just DDoS-attacker kan utföras med ganska små medel faktiskt.
150 00:10:12,980 --> 00:10:15,800
Men där är ju skyddet rent. Det är ju bara en fråga om
151 00:10:16,320 --> 00:10:16,820
tekniska skydd liksom.
152 00:10:17,080 --> 00:10:19,380
Jag vet inte och jag kan inte
153 00:10:19,640 --> 00:10:20,920
gå in på exakt vad man
154 00:10:20,920 --> 00:10:21,440
vad man vidtar.
155 00:10:21,740 --> 00:10:23,020
För åtgärder. Men det finns ju
156 00:10:23,280 --> 00:10:25,840
standardåtgärder att göra. Och det är väl just där att
157 00:10:26,080 --> 00:10:27,120
sånt kan ju hända för att
158 00:10:27,360 --> 00:10:29,920
det krävs inte så jäkla mycket för att genomföra det.
159 00:10:30,180 --> 00:10:31,980
Då måste man ju, man har inget val.
160 00:10:32,240 --> 00:10:34,280
Man får trappa upp sin skydd mot det helt enkelt.
161 00:10:34,800 --> 00:10:36,080
Men det är just ett val vi har.
162 00:10:37,100 --> 00:10:37,860
Valår.
163 00:10:39,660 --> 00:10:42,480
Okej Linus, tusen tack för att du tog dig tid här på
164 00:10:42,720 --> 00:10:48,100
Säkerhetsbordkanslerns lyssnare så tackar jag så mycket för att du delade med dig av det här och du ska rusa vidare här nu.
165 00:10:48,360 --> 00:10:50,920
Och vi ser fram emot hur ni kommer bevaka valet
166 00:10:50,920 --> 00:10:52,460
2018 här.
167 00:10:52,720 --> 00:10:53,220
Tack så mycket för det!
168 00:10:53,480 --> 00:10:54,000
Tack så mycket!