Contents

Säkerhetspodcasten #110 - Säkerhet i Media med Linus Larsson

Lyssna

mp3

Innehåll

I dagens avsnitt intervjuas DNs Linus Larsson av vår flygande reporter Robin von Post om hur media hanterar frågor kring IT-Säkerhet, kring propaganda, valpåverkan och mycket annat.

Inspelat: 2017-11-07. Längd: 00:10:56.

Länkar

Nordic IT Security

AI transkribering

AI försöker förstå oss… Ha överseende med galna feltranskriberingar.

1 00:00:00,100 --> 00:00:02,740 Hej och välkommen till Säkerhetspodcasten.

2 00:00:03,140 --> 00:00:07,860 Innan vi börjar dagens avsnitt skulle jag vilja tipsa om våra nya fina Säkerhetspodcasten-stickers

3 00:00:07,860 --> 00:00:11,160 som nu finns tillgängliga för alla våra lyssnare helt gratis.

4 00:00:11,840 --> 00:00:15,220 Det enda ni behöver göra för att få dem är att skicka ett frankerat kuvert till

5 00:00:15,220 --> 00:00:22,640 Assured AB Care of Säkerhetspodcasten på adressen Norra Lergatan 7 413 01 Göteborg

6 00:00:22,640 --> 00:00:26,600 så kommer en handfull nya fräscha-stickers som ett brev på posten inom ett par dagar.

7 00:00:26,600 --> 00:00:30,620 Det var alltså Norra Lergatan 7 413 01 Göteborg.

8 00:00:32,080 --> 00:00:33,580 Till dagens avsnitt då.

9 00:00:33,760 --> 00:00:37,500 Under hösten så har vi på Säkerhetspodcasten haft en reporter i fältet

10 00:00:37,500 --> 00:00:40,020 nämligen den eminente Robin von Post

11 00:00:40,020 --> 00:00:43,820 som har bandat en hel drös intervjuer på ett par konferenser i Stockholm.

12 00:00:44,760 --> 00:00:48,420 Vi skulle väldigt gärna vilja tacka Sectra som har lånat ut honom till oss

13 00:00:48,420 --> 00:00:52,740 och vill ni följa Robin så gör ni det enklast på at r von post på Twitter.

14 00:00:53,340 --> 00:00:56,200 Stort tack alltså till Sectra och till Robin.

15 00:00:56,600 --> 00:00:57,760 Nu rullar vi intervjun.

16 00:00:58,100 --> 00:00:58,980 Tack så mycket Johan.

17 00:00:59,500 --> 00:01:04,820 Jag står här på Nordic IT Security 2017 tillsammans med Linus Larsson

18 00:01:04,820 --> 00:01:09,060 direkt från DN, grävande journalist och teknisk redaktör.

19 00:01:09,180 --> 00:01:09,620 Kan det stämma?

20 00:01:09,840 --> 00:01:10,560 Ja visst, absolut.

21 00:01:11,400 --> 00:01:13,160 Vi ska se, vi ska höja…

22 00:01:13,160 --> 00:01:18,720 Vi pratade här om hur media kommer påverkas inför valet nu.

23 00:01:18,780 --> 00:01:20,280 Det är den heta punkten.

24 00:01:20,280 --> 00:01:24,980 Och kanske specifikt då kring IT-säkerhetsfrågan, hur vi kan skydda oss.

25 00:01:25,060 --> 00:01:26,580 Och du tog upp en ganska intressant punkt.

26 00:01:26,600 --> 00:01:30,580 Jag menar, ni har mycket källor, ni har mycket information som ni ska skydda.

27 00:01:30,740 --> 00:01:35,480 Hur jobbar ni aktivt med att bygga upp ett bra skydd av er verksamhet?

28 00:01:36,740 --> 00:01:43,600 Jag skulle säga att vi har ett ganska bra team av säkerhetsfolk som har…

29 00:01:45,380 --> 00:01:47,600 IT-säkerhetsfolk som…

30 00:01:48,640 --> 00:01:52,840 Jag tror det som har hänt är att de har fått en högre status på tidningen,

31 00:01:52,840 --> 00:01:55,420 på redaktionen och tidningen som organisation,

32 00:01:56,600 --> 00:01:58,560 men fler och fler begriper hur viktigt det här är.

33 00:01:58,760 --> 00:02:03,020 Jag tror att förut så kanske det som ansvarade för det var någon som satt lite grann i bakgrunden

34 00:02:03,020 --> 00:02:06,320 och gjorde något som folk kanske förstod var viktigt,

35 00:02:06,440 --> 00:02:08,680 men det var liksom inte kanske något man pratade om sådär.

36 00:02:08,680 --> 00:02:10,880 Jag ser mycket mer av ett samtalsämne idag,

37 00:02:11,360 --> 00:02:15,820 att hur man skyddar den känsligaste informationen

38 00:02:15,820 --> 00:02:19,860 och mycket, mycket större medvetenhet om vilka risker som skulle finnas.

39 00:02:20,540 --> 00:02:26,580 Man pratar ju mycket om propaganda och att vi har en aktör i Öster som försöker påverka både vårt beslutsförhållande,

40 00:02:26,600 --> 00:02:30,720 vårt beslutsfattande och vår beredskap om splittring i befolkningen.

41 00:02:31,540 --> 00:02:37,780 Hur hanterar ni det? För ni måste ju värdera era nyheter i förhållande till att andra kommer ut med nyheter också, antar jag.

42 00:02:38,620 --> 00:02:40,720 Ja, alltså…

43 00:02:40,720 --> 00:02:44,680 Jag menar, som seriösa medier ska man operera det som är sant och relevant.

44 00:02:44,840 --> 00:02:47,460 Det har liksom gällt i alla tider och det gäller precis lika mycket nu.

45 00:02:47,860 --> 00:02:53,540 Det man är medveten om är väl kanske att det finns aktörer som högst medvetna kampanjer

46 00:02:53,540 --> 00:02:56,440 och med ganska goda resurser skulle kunna…

47 00:02:56,440 --> 00:03:00,440 Det är en sätta försök att vilseleda.

48 00:03:00,820 --> 00:03:07,400 Men ibland tycker jag att när man diskuterar lite så låter det som att någon skulle bara kunna hitta på något och få ut.

49 00:03:07,400 --> 00:03:11,040 Alltså, så funkar det inte. Det är inte så jäkla lätt.

50 00:03:11,200 --> 00:03:13,400 Vi har ju alltid…

51 00:03:14,100 --> 00:03:20,660 Det finns otroligt många som vill ha insaker i tidningen som inte lyckats få det av helt olika anledningar.

52 00:03:20,840 --> 00:03:26,080 Så det är liksom inget nytt scenario egentligen att behöva stenhårt verifiera all information man tar del av.

53 00:03:26,440 --> 00:03:32,440 Men samtidigt så tävlar ni med de andra nyhetskanalerna, om vi kan kalla det det, med era nyheter.

54 00:03:32,640 --> 00:03:35,900 Vad är det som delas på sociala medier och så vidare?

55 00:03:36,340 --> 00:03:37,620 Och det känns som att det finns en törst.

56 00:03:38,020 --> 00:03:41,080 Alltså, falska nyheter finns det inte så många av.

57 00:03:41,180 --> 00:03:48,260 Så att de som använder dem för att verifiera sina egna synpunkter har ju en tendens att väldigt snabbt dela den typen av nyheter.

58 00:03:48,680 --> 00:03:51,500 Ja, absolut. Fast det betyder ju inte att vi går på det, så att säga.

59 00:03:53,320 --> 00:03:55,000 Det är ju naturligtvis så.

60 00:03:55,120 --> 00:03:55,840 Det är ju klart att det är en tävlan.

61 00:03:56,440 --> 00:04:02,200 Den som är först med stora nyheter, så har det ju faktiskt också alltid varit.

62 00:04:02,580 --> 00:04:07,740 Det finns sådär. Skulle man slarva i ett sådant fall så är det klart att det skulle kunna finnas någon som går på någonting bara för att det låter så bra.

63 00:04:07,740 --> 00:04:11,940 Men det där ligger så mycket i ryggmärgen hos seriösa medier.

64 00:04:12,320 --> 00:04:15,720 Det är att man inte bara kan tro på allting man hör.

65 00:04:15,920 --> 00:04:18,520 Idag kanske det är allting man hör på Twitter kan man inte tro på.

66 00:04:18,620 --> 00:04:21,540 Förut var det kanske allting som någon bara ringde in och tipsade om.

67 00:04:22,040 --> 00:04:23,360 Folk ringer fortfarande och tipsar för övrigt.

68 00:04:23,360 --> 00:04:33,560 Men det är mer av de här scenarierna som är bekanta än man skulle kunna tro.

69 00:04:33,840 --> 00:04:35,540 Möjligtvis kan det ta sig en annan skala.

70 00:04:35,740 --> 00:04:49,720 Det som kan hända med en sån här viral bluff eller fake news är att tack vare sociala medier framförallt, mest av allt Facebook, så kan de få en sån gigantisk spridning.

71 00:04:50,040 --> 00:04:52,960 De kan nå fler människor än vi.

72 00:04:53,360 --> 00:04:57,360 De kan nå fler människor på väldigt kort tid om de får en sån här delningssnurr.

73 00:04:58,480 --> 00:05:06,000 Där blir det mer som att vår roll blir ännu viktigare med att verifiera och kanske skjuta ner en sån story.

74 00:05:06,120 --> 00:05:10,560 Jag är stor vän av Viralgranskaren som har funnits ett par år nu.

75 00:05:10,660 --> 00:05:14,740 Det har funnits en massa sådana fact-checking-sajter just att ta fasta på.

76 00:05:14,740 --> 00:05:22,300 En gång i tiden hade man, när sådana rykten gick på stan, så hade man bara som tidning sagt att det där visade sig vara fel.

77 00:05:22,400 --> 00:05:23,340 Så vi skriver inte om det.

78 00:05:23,540 --> 00:05:26,380 Idag säger man att det där visade sig vara fel, så vi skriver att det var fel.

79 00:05:27,440 --> 00:05:31,060 Det är ju något som ändå har uppstått de senaste åren.

80 00:05:31,140 --> 00:05:35,920 Jag tror att det hänger ihop med att spridningen är mätbar när man har delningar.

81 00:05:36,280 --> 00:05:39,120 Förut var det så att alla pratade på stan om att något har hänt.

82 00:05:39,220 --> 00:05:40,940 Vi vet att det är falskt, så vi bara ignorerar det.

83 00:05:41,240 --> 00:05:44,220 Nu kan man säga att det här har fått 10 000 delningar på Facebook.

84 00:05:44,340 --> 00:05:46,580 Då måste man adressera och säga att det är falskt.

85 00:05:46,880 --> 00:05:49,800 Det är väl grunden för Viralgranskaren och alla sådana här fact-checking-sajter.

86 00:05:49,920 --> 00:05:51,140 Det tror jag är en sund utveckling.

87 00:05:51,400 --> 00:05:53,140 En annan punkt som du hade på…

88 00:05:53,360 --> 00:05:56,440 Men eldebatten var ju möjligheterna som blir med den nya teknologin.

89 00:05:56,600 --> 00:05:58,260 Alltså den digitala plattformen.

90 00:05:58,340 --> 00:06:03,420 Hur skulle du säga att den gynnar traditionell media i ett sådant här scenario?

91 00:06:05,540 --> 00:06:10,940 Möjligheten att publicera mer av källmaterial kan man göra.

92 00:06:11,000 --> 00:06:12,260 Vi gör väl inte det så jätteofta.

93 00:06:12,300 --> 00:06:13,320 Man skulle kunna göra det oftare.

94 00:06:13,400 --> 00:06:17,320 Ett helt dokument istället för att bara citera ur det.

95 00:06:17,320 --> 00:06:22,040 Man kan lägga en oredigerad intervju om man vill det.

96 00:06:22,200 --> 00:06:23,200 Man kan…

97 00:06:23,360 --> 00:06:25,260 Gå in…

98 00:06:25,260 --> 00:06:29,480 Man kan publicera fördjupande artiklar om någon komplicerad research som de flesta inte orkar läsa.

99 00:06:29,580 --> 00:06:34,840 Men vill man verkligen veta hur det gick till så kan man göra det.

100 00:06:35,000 --> 00:06:36,220 Det finns ju begränsningar dock.

101 00:06:36,520 --> 00:06:37,600 Och det är ju att…

102 00:06:37,600 --> 00:06:39,000 Ibland är det ju för känsligt.

103 00:06:39,780 --> 00:06:46,840 Jag och min kollega Christoffer Stadius gjorde i fjol en större granskning om ransomware till exempel.

104 00:06:47,480 --> 00:06:51,480 Och då gick vi igenom extrema mängder loggfiler.

105 00:06:51,480 --> 00:06:56,680 Och tog del av en hel del kod från inte…

106 00:06:56,680 --> 00:06:58,700 Man kan nog inte kalla det command and control-server.

107 00:06:58,780 --> 00:07:01,020 Men åtminstone hackade sajter som de använde.

108 00:07:01,800 --> 00:07:04,240 Så det var liksom POP-filer och databaser och sådana saker.

109 00:07:04,980 --> 00:07:09,640 Och väldigt mycket av sånt hjälpte oss att göra research och komma vidare och kartlägga hur det där fungerade.

110 00:07:09,780 --> 00:07:11,720 Och bitcoin-adressen spårade vi och hade sådär.

111 00:07:12,100 --> 00:07:13,120 Och där har jag tänkt i efterhand.

112 00:07:13,220 --> 00:07:15,460 Skulle man där ha lagt ut väldigt mycket mer?

113 00:07:15,580 --> 00:07:16,900 Kanske är det svårt att göra också.

114 00:07:16,900 --> 00:07:21,040 För det där är liksom loggfiler som vi har fått i förtroende för att kunna göra en research.

115 00:07:21,480 --> 00:07:24,040 Lägga ut hela dem skulle nog inte anses speciellt schysst.

116 00:07:24,180 --> 00:07:26,240 Så det finns ju också gränser för hur mycket man kan göra där.

117 00:07:26,320 --> 00:07:32,020 Men annars gillar jag tanken på att publicera bonusmaterial som är oredigerat.

118 00:07:32,280 --> 00:07:36,860 Som är hela källmaterialet rakt av.

119 00:07:38,140 --> 00:07:44,640 Vilka erfarenheter från USA och franska valet kring medias roll i den?

120 00:07:44,640 --> 00:07:48,680 Du hade ett exempel som sagt där du pratade om att nyheter är nyheter.

121 00:07:49,260 --> 00:07:51,440 Hur skulle man kunna hantera den situationen?

122 00:07:51,480 --> 00:07:53,480 Om vi går in i valår här nu?

123 00:07:53,780 --> 00:07:58,900 Ja, alltså det jag tog upp där var väl att amerikansk media ställdes inför ett scenario där

124 00:07:59,160 --> 00:08:06,320 det här materialet som nu finns tillgängligt ser ut att komma från ett allvarligt dataentrång.

125 00:08:06,580 --> 00:08:10,160 Vad det verkar som styrt av en statlig aktör.

126 00:08:10,420 --> 00:08:13,760 Och hur ska man då förhålla sig till det?

127 00:08:14,000 --> 00:08:21,180 Det amerikansk media gjorde, jag tror i alla fall, var att se det som är härsamt och verifierbart och intressant.

128 00:08:21,480 --> 00:08:25,060 Det är intressant information, då publicerar man det. Men man bevakar också dataentrånget.

129 00:08:25,320 --> 00:08:35,040 Och det är väldigt svårt att verkligen se vad som kommer att hända under det kommande året i Sverige.

130 00:08:35,300 --> 00:08:39,660 Men jag har stor förståelse för att amerikansk media landade i den slutsatsen.

131 00:08:39,920 --> 00:08:46,060 Man kan liksom inte ha någon idé att man låter bli att publicera information som är relevant.

132 00:08:46,320 --> 00:08:51,440 Då hamnar man i någon konstig sits där man liksom medvetet ska tycka.

133 00:08:51,740 --> 00:08:55,840 Om någon information som faktiskt är värd att berätta om.

134 00:08:56,080 --> 00:09:02,240 Om man blir i någon mening anklagad för att föra någon egen agenda så fort man börjar utföra sådana

135 00:09:02,480 --> 00:09:03,520 typer av bedömningar antar jag.

136 00:09:04,280 --> 00:09:10,420 Ja exakt, precis. Det enda man har för ögonen är om det är en intressant nyhet eller inte.

137 00:09:10,680 --> 00:09:15,800 Men jag tror att det klurades mycket på amerikanska redaktioner när man ställde sig inför

138 00:09:16,060 --> 00:09:19,380 den där typen av information.

139 00:09:19,640 --> 00:09:21,180 På det stora hela så gjorde

140 00:09:21,740 --> 00:09:27,880 de ett jäkligt bra jobb. Framförallt de stora amerikanska tidningarna gjorde väldigt mycket bra rapportering inför valet.

141 00:09:29,160 --> 00:09:31,720 En annan punkt som

142 00:09:31,980 --> 00:09:38,120 oftast pratas om med propaganda och dissimulation är ju disruption, att man försöker förstöra tekniska system

143 00:09:38,380 --> 00:09:42,480 och göra det nära service och så vidare. Hur kommer ni möta en sådan hotbild?

144 00:09:43,240 --> 00:09:49,380 Ja, det är inte jag som sitter och skruvar på servrarna för att kunna stå emot det. Men vi hade ju en ganska stor

145 00:09:51,480 --> 00:09:58,140 incident med en väldigt omfattande DDoS-attack som gjorde att vi inte fungerade.

146 00:09:58,900 --> 00:09:59,420 Och

147 00:10:00,440 --> 00:10:06,580 som jag sa på scenen nyss så vill inte jag dra förutsatsen att det är någon statlig aktör eller sådär

148 00:10:06,840 --> 00:10:08,380 utan det kan mycket väl vara

149 00:10:08,880 --> 00:10:11,700 just DDoS-attacker kan utföras med ganska små medel faktiskt.

150 00:10:12,980 --> 00:10:15,800 Men där är ju skyddet rent. Det är ju bara en fråga om

151 00:10:16,320 --> 00:10:16,820 tekniska skydd liksom.

152 00:10:17,080 --> 00:10:19,380 Jag vet inte och jag kan inte

153 00:10:19,640 --> 00:10:20,920 gå in på exakt vad man

154 00:10:20,920 --> 00:10:21,440 vad man vidtar.

155 00:10:21,740 --> 00:10:23,020 För åtgärder. Men det finns ju

156 00:10:23,280 --> 00:10:25,840 standardåtgärder att göra. Och det är väl just där att

157 00:10:26,080 --> 00:10:27,120 sånt kan ju hända för att

158 00:10:27,360 --> 00:10:29,920 det krävs inte så jäkla mycket för att genomföra det.

159 00:10:30,180 --> 00:10:31,980 Då måste man ju, man har inget val.

160 00:10:32,240 --> 00:10:34,280 Man får trappa upp sin skydd mot det helt enkelt.

161 00:10:34,800 --> 00:10:36,080 Men det är just ett val vi har.

162 00:10:37,100 --> 00:10:37,860 Valår.

163 00:10:39,660 --> 00:10:42,480 Okej Linus, tusen tack för att du tog dig tid här på

164 00:10:42,720 --> 00:10:48,100 Säkerhetsbordkanslerns lyssnare så tackar jag så mycket för att du delade med dig av det här och du ska rusa vidare här nu.

165 00:10:48,360 --> 00:10:50,920 Och vi ser fram emot hur ni kommer bevaka valet

166 00:10:50,920 --> 00:10:52,460 2018 här.

167 00:10:52,720 --> 00:10:53,220 Tack så mycket för det!

168 00:10:53,480 --> 00:10:54,000 Tack så mycket!