Contents

Säkerhetspodcasten #143 - Nyårsspaningar

Lyssna

mp3

Innehåll

I dagens avsnitt går panelen igenom spaningarna de gjorde för ett år sen, och levererar rykande färska förnimmelser om framtiden inför 2019!

Inspelat: 2019-01-09. Längd: 00:52:40.

Gamla 2018 Spaningar

  • 09:10 Peter: AI-säkerhetshål, AI blir ont!
  • 17:55 Mattias: Stora Webbsårbarhetet, JavaScript, kritiska
  • 20:20 Rickard: En stor databreach; Google, Facebook
  • 24:30 Jesper: Stor attack mot Internet, BGP, DNS
  • 25:55 Johan: All out Cyber-War

Nya 2019 Spaningar

  • 28:00 Mattias: Nordirlänsk cyberfront mot politiska britiska mål
  • 31:10 Rickard: AI krashar börsen utifrån manipulation
  • 33:39 Peter: Produktcertifieringar inom säkerhet
  • 41:25 Johan: Feta sårbarheter i Docker, Kubernetes, IaC utnyttjas
  • 43:40 Jesper: (jesper frånvarande, podden ljuger ihop spaningar)

Spaningsscore

År Vem Poäng Spaning
2018 Panelen 0.7
2019 Johan ??? Feta sårbarheter i Docker, Kubernetes, IaC utnyttjas
2018 Johan 0.0 All out Cyber-War
2019 Peter ??? Produktcertifieringar inom säkerhet
2018 Peter 0.2 AI-säkerhetshål, AI blir ont!
2019 Jesper ??? (Panelen slängde ihop någon spaning för jesper)
2018 Jesper 0.0 Stor attack mot Internet, BGP, DNS
2019 Rickard ??? AI krashar börsen utifrån manipulation
2018 Rickard 0.5 En stor databreach; Google, Facebook
2019 Mattias ??? Nordirlänsk cyberfront mot politiska britiska mål
2018 Mattias 0.0 Stora Webbsårbarhetet, JavaScript, kritiska

AI transkribering

AI försöker förstå oss… Ha överseende med galna feltranskriberingar.

1 00:00:00,000 --> 00:00:02,280 Vandret rullar

2 00:00:30,000 --> 00:00:31,740 Det är just det som var det.

3 00:00:33,020 --> 00:00:35,060 Det är Linux-date.

4 00:00:35,820 --> 00:00:37,240 Det är Epoch-en till slut.

5 00:00:37,240 --> 00:00:38,520 Epoch-en till slut.

6 00:00:39,500 --> 00:00:43,040 Är det bara Linux som åker på det?

7 00:00:43,260 --> 00:00:44,280 Det är inga andra system som…

8 00:00:44,280 --> 00:00:45,660 Allt kommer att falla.

9 00:00:45,920 --> 00:00:47,660 Allt som använder Epoch-en.

10 00:00:48,620 --> 00:00:52,820 Systemen kommer att dö, flygen kommer att falla, satelliterna kommer att rasa.

11 00:00:52,960 --> 00:00:53,780 Det är Peters prediction.

12 00:00:56,580 --> 00:00:59,080 Man går i så andra system.

13 00:00:59,320 --> 00:00:59,900 Typ 30.

14 00:01:00,000 --> 00:01:07,480 Alla som fortfarande är kvar på 32-bit signed integer-representation av tiden.

15 00:01:08,400 --> 00:01:10,480 För de hamnar på negativ tid.

16 00:01:10,560 --> 00:01:12,900 Och negativ tid är odefinierat felfall.

17 00:01:13,060 --> 00:01:15,000 Och då dör maskinerna.

18 00:01:15,660 --> 00:01:16,860 Processen börjar brinna.

19 00:01:17,380 --> 00:01:21,220 Men när gick de över till 64-bitars tid?

20 00:01:21,420 --> 00:01:21,800 Förrgår.

21 00:01:23,520 --> 00:01:23,660 Va?

22 00:01:24,000 --> 00:01:24,600 Nej, jag vet inte.

23 00:01:24,680 --> 00:01:27,440 De som ligger kvar på 32-bitars integer.

24 00:01:27,440 --> 00:01:29,440 Ja, det är väl typiskt.

25 00:01:30,000 --> 00:01:38,400 32-bitars maskiner och program som av någon anledning fortfarande är gammaldags.

26 00:01:38,400 --> 00:01:45,860 Okej, så samtidigt som vi gick över på 64-bitars adressering så gick man över på 64-bitars Epoch-tid?

27 00:01:47,140 --> 00:01:49,900 Adresseringen har vi inte med saken att göra, men i princip ja.

28 00:01:50,080 --> 00:01:50,580 Okej, bra.

29 00:01:50,640 --> 00:01:58,380 Alltså när du bytte heltalen från 32-bit till 64-bit så blev tiden i de flesta implementationer 32-bit.

30 00:01:58,380 --> 00:01:59,980 Men det finns undantag.

31 00:02:00,000 --> 00:02:07,900 Vi är idag sponsrade av Ashore. Läs mer om dem på ashore.se och dessutom Bortfors Consulting som ni hittar på bortfors.se.

32 00:02:08,120 --> 00:02:10,280 Tyckte du att vi båda drog iväg där lite?

33 00:02:10,500 --> 00:02:11,940 Nej, det var intressant, men det var dags att gå vidare.

34 00:02:12,400 --> 00:02:21,980 Och Peter sponsrar tillfälligt med en Zyper 55-mic och en SCD med ett Dynamite för förstarkare.

35 00:02:21,980 --> 00:02:29,260 Ja, det är nämligen så att vi funderar på om vi ska uppgradera lite hur vi låter och hur vi jobbar här med nya mikrofoner och dylikt.

36 00:02:30,000 --> 00:02:32,000 Peter är den som sitter på den nya mikrofonen.

37 00:02:32,000 --> 00:02:40,240 Jag tänker att det är bara själva ljudkvaliteten vi kan förbättra. Vi kan inte förbättra innehållet i sig, det är tyvärr lika dåligt.

38 00:02:40,240 --> 00:02:42,240 Vi har försökt, men det går inte.

39 00:02:42,240 --> 00:02:45,240 Om man blir lite mer intelligent med en bättre mikrofon så är det faktiskt.

40 00:02:45,240 --> 00:02:47,240 Man låter mer upplyst.

41 00:02:47,240 --> 00:02:57,000 Men däremot så kan man ju säga att om ni gillar hur Peter låter så kan ni ju säga till, för då kanske vi löser någon form av crowdfunded uppgradering av vår hårdvara här.

42 00:02:57,000 --> 00:02:59,000 Och så får ni höra av er om ni vill att vi ska börja en avsnitt.

43 00:02:59,000 --> 00:02:59,120 Och så får ni höra av er om ni vill att vi ska börja en avsnitt.

44 00:02:59,120 --> 00:03:02,480 Och så får ni höra av er om ni vill att vi ska börja en ASMR-ljudcast här.

45 00:03:02,480 --> 00:03:03,560 Precis.

46 00:03:03,560 --> 00:03:05,560 ASM.

47 00:03:08,560 --> 00:03:10,560 Peter ljudporrar där borta.

48 00:03:10,560 --> 00:03:18,560 Vilket för övrigt är tydligen en felaktig förkortning. Det betyder ingenting. Det är bara någon som failade.

49 00:03:18,560 --> 00:03:20,560 Soft.

50 00:03:20,560 --> 00:03:27,560 Vi har lite snabba plugs och det är egentligen Securityfest som vanligt som snart går in i vår första CFP Review-runda.

51 00:03:27,560 --> 00:03:28,560 Så börja skicka in era CFPer.

52 00:03:28,560 --> 00:03:29,060 Så börja skicka in era CFPer.

53 00:03:29,060 --> 00:03:31,000 inte har gjort det redan. Finns såklart

54 00:03:31,000 --> 00:03:32,340 platser för sponsorer och så vidare.

55 00:03:33,040 --> 00:03:34,200 Maila oss eller gå in på

56 00:03:34,200 --> 00:03:36,140 securitfest.com för mer information.

57 00:03:37,440 --> 00:03:38,520 Några andra plugs?

58 00:03:41,180 --> 00:03:43,100 Nej, lite tidigt.

59 00:03:43,980 --> 00:03:44,820 Det är först i maj.

60 00:03:46,080 --> 00:03:46,780 Säg det, säg det.

61 00:03:47,920 --> 00:03:49,220 Det är två grejer

62 00:03:49,220 --> 00:03:50,900 egentligen då. Dels

63 00:03:50,900 --> 00:03:53,160 är det Skada Security

64 00:03:53,160 --> 00:03:54,480 i Stockholm

65 00:03:54,480 --> 00:03:56,300 som går av stapeln

66 00:03:56,300 --> 00:03:59,620 jag tror det är 56 maj.

67 00:04:00,140 --> 00:04:00,940 Början på maj

68 00:04:00,940 --> 00:04:02,160 är det i alla fall.

69 00:04:03,400 --> 00:04:04,480 Och där kommer

70 00:04:04,480 --> 00:04:06,780 det att dyka upp

71 00:04:06,780 --> 00:04:08,440 en massa bra folk och prata

72 00:04:08,440 --> 00:04:10,040 skadasäkerhet och annat.

73 00:04:11,160 --> 00:04:12,880 Sen så skulle jag vilja

74 00:04:12,880 --> 00:04:14,120 slå ett slag för

75 00:04:14,120 --> 00:04:16,480 Skada World

76 00:04:16,480 --> 00:04:18,940 Congress eller någonting sånt där

77 00:04:18,940 --> 00:04:19,780 i London

78 00:04:19,780 --> 00:04:22,840 som jag har blivit inbjuden att

79 00:04:22,840 --> 00:04:23,640 tala på också.

80 00:04:23,640 --> 00:04:25,400 Så vi får se

81 00:04:25,400 --> 00:04:26,640 vad det landar på.

82 00:04:26,840 --> 00:04:28,120 Men den är i juni.

83 00:04:29,080 --> 00:04:31,680 Så vi får se. Jag ska få bekräftat

84 00:04:31,680 --> 00:04:33,540 att jag har en talarplats

85 00:04:33,540 --> 00:04:35,100 innan jag pluggar om för mycket.

86 00:04:35,360 --> 00:04:36,360 Men det kommer säkert bli intressant.

87 00:04:36,500 --> 00:04:37,700 Mer info när det börjar närma sig.

88 00:04:38,780 --> 00:04:40,780 Så bra. Det är ju som sagt

89 00:04:40,780 --> 00:04:43,120 vårt årliga nyårsavsnitt.

90 00:04:43,500 --> 00:04:44,980 Och det vi har gjort de senaste åren

91 00:04:44,980 --> 00:04:47,100 är ju att gå igenom

92 00:04:47,100 --> 00:04:49,780 lite spårdomar helt enkelt.

93 00:04:50,500 --> 00:04:51,160 Det så gjorde vi

94 00:04:51,160 --> 00:04:52,640 några förra året vid den här tiden.

95 00:04:52,640 --> 00:04:53,620 Och de ska vi gå igenom.

96 00:04:53,640 --> 00:04:55,720 Och se om vi hade någon bra hitrate på.

97 00:04:56,400 --> 00:04:57,780 Och dessutom så ska vi försöka göra

98 00:04:57,780 --> 00:04:59,980 lite nya smarta tankar

99 00:04:59,980 --> 00:05:01,220 kring 2019.

100 00:05:01,580 --> 00:05:02,140 Året som kommer.

101 00:05:02,580 --> 00:05:04,280 Hur känns 2019 så här långt tycker ni?

102 00:05:07,080 --> 00:05:08,360 Lite samma samma.

103 00:05:08,680 --> 00:05:09,920 Ja, alltså som 2018

104 00:05:09,920 --> 00:05:11,580 fast en version till.

105 00:05:12,700 --> 00:05:13,980 Ett steg närmare

106 00:05:13,980 --> 00:05:14,600 avgrunden.

107 00:05:15,360 --> 00:05:17,200 Det har väl varit rätt mycket kaos i USA

108 00:05:17,200 --> 00:05:19,300 men inte så mycket inom datasäkerhet.

109 00:05:19,320 --> 00:05:21,080 Nej, du menar shutdown?

110 00:05:21,080 --> 00:05:23,080 Ja, stänga ner hela…

111 00:05:23,640 --> 00:05:26,600 Jo, men fan, det här glömde vi att ta under nyheterna.

112 00:05:26,660 --> 00:05:27,280 Det borde vi ha gjort.

113 00:05:27,760 --> 00:05:30,100 De har ju…

114 00:05:30,100 --> 00:05:33,000 De har ju råkat

115 00:05:33,000 --> 00:05:34,540 missa med att

116 00:05:34,540 --> 00:05:36,420 det gick att ta pdf-en

117 00:05:36,420 --> 00:05:38,680 och ta det här

118 00:05:38,680 --> 00:05:40,500 svartmarkerade och

119 00:05:40,500 --> 00:05:42,780 kopiera det och paste det in i ett Word-dokument.

120 00:05:43,200 --> 00:05:44,440 Så fick man se att…

121 00:05:44,440 --> 00:05:46,400 För nu vet de ju massa om vad de hemliga

122 00:05:46,400 --> 00:05:48,660 stämplade delarna av

123 00:05:48,660 --> 00:05:49,740 utredningarna är nu.

124 00:05:49,740 --> 00:05:50,520 Vilken utredning?

125 00:05:50,780 --> 00:05:53,000 Ja, mot han.

126 00:05:53,640 --> 00:05:54,860 Man har fart eller nåt.

127 00:05:54,880 --> 00:05:55,480 Man har fart, ja.

128 00:05:55,840 --> 00:05:58,720 Så man vet att han är på och

129 00:05:58,720 --> 00:06:01,300 var inne och jobbade med kampanjen

130 00:06:01,300 --> 00:06:03,360 efter att han blivit president.

131 00:06:03,720 --> 00:06:04,860 Shit, vilket fail.

132 00:06:04,920 --> 00:06:06,920 Det var en massa spännande göttigt här.

133 00:06:07,320 --> 00:06:07,540 Ja.

134 00:06:08,740 --> 00:06:10,660 En annan kul grej apropå

135 00:06:10,660 --> 00:06:13,200 det stora landet i väster och 2019

136 00:06:13,200 --> 00:06:14,800 är ju att många av dem

137 00:06:14,800 --> 00:06:17,240 och Government Shutdown är att många av de stora

138 00:06:17,240 --> 00:06:19,480 myndighetssajterna, jag tror jag har sett tre idag

139 00:06:19,480 --> 00:06:21,320 har ju utgångna cert.

140 00:06:21,800 --> 00:06:22,960 Det är ju lite pinsamt.

141 00:06:23,640 --> 00:06:24,920 Fast vi kanske inte ska

142 00:06:24,920 --> 00:06:27,220 snacka för högt om det

143 00:06:27,220 --> 00:06:28,560 med tanke på vår egen sajt.

144 00:06:28,820 --> 00:06:31,040 Det är väl en stenig glashus hela den här biten?

145 00:06:31,060 --> 00:06:33,540 Lite grann så. Men det löste sig i alla fall relativt fort.

146 00:06:34,700 --> 00:06:35,980 Men ja, säkerhetspodcasten

147 00:06:35,980 --> 00:06:38,760 var lite drabbade av samma problem ett tag.

148 00:06:38,880 --> 00:06:39,960 Men om jag förstod det rätt

149 00:06:39,960 --> 00:06:42,160 så var vi inte helt dumma i huvudet

150 00:06:42,160 --> 00:06:44,420 utan problemet var att det var en nätleverantör

151 00:06:44,420 --> 00:06:46,300 som hade en dator

152 00:06:46,300 --> 00:06:48,720 med en helt kassklocka som var…

153 00:06:48,720 --> 00:06:50,860 Så att vi var…

154 00:06:50,860 --> 00:06:52,180 Vi friskriver oss allt ansvar.

155 00:06:52,200 --> 00:06:53,180 Vi hade problemet.

156 00:06:53,640 --> 00:06:55,720 Som jag har förstått

157 00:06:55,720 --> 00:06:56,880 fått det förklarat för mig

158 00:06:56,880 --> 00:06:59,340 så var det liksom inte vi som var

159 00:06:59,340 --> 00:07:00,900 root cause till att vi fejlade.

160 00:07:01,100 --> 00:07:02,040 Nej, men det är mycket möjligt.

161 00:07:02,360 --> 00:07:05,000 Men trots det så var det lite svårt

162 00:07:05,000 --> 00:07:06,140 att komma in på vår sajt ett tag.

163 00:07:06,740 --> 00:07:07,900 För alla som vill göra det.

164 00:07:08,960 --> 00:07:10,700 Sen så är det ju faktiskt året som Brexit

165 00:07:10,700 --> 00:07:12,380 kommer förmodligen hända på något

166 00:07:12,380 --> 00:07:13,520 ett eller annat sätt.

167 00:07:13,900 --> 00:07:15,420 Och det är väl…

168 00:07:15,420 --> 00:07:16,720 Det är inte så många månader kvar.

169 00:07:16,960 --> 00:07:19,700 Total fucking clusterfuck-varning på det för närvarande.

170 00:07:20,000 --> 00:07:22,060 Ja, det känns det verkligen som.

171 00:07:22,060 --> 00:07:23,480 Det är en riktig sån…

172 00:07:23,640 --> 00:07:26,460 Men de har typ något mystiskt bedrägeriföretag

173 00:07:26,460 --> 00:07:28,780 som hävdar att de har båtar

174 00:07:28,780 --> 00:07:29,440 och att de har

175 00:07:29,440 --> 00:07:31,840 skeppningskontrakt

176 00:07:31,840 --> 00:07:33,880 som ska typ rädda…

177 00:07:33,880 --> 00:07:35,740 De ska med båtar rädda England

178 00:07:35,740 --> 00:07:36,800 och så har det visat sig att

179 00:07:36,800 --> 00:07:39,580 de har inga båtar och de har inga kontrakt.

180 00:07:39,680 --> 00:07:40,760 De har bara ljugit.

181 00:07:41,200 --> 00:07:44,260 Men de har fått en massa miljarder från den brittiska staten.

182 00:07:44,380 --> 00:07:44,800 Som man gör.

183 00:07:45,520 --> 00:07:47,840 Men ja, det kommer säkerligen att ha

184 00:07:47,840 --> 00:07:50,260 impact på säkerhet

185 00:07:50,260 --> 00:07:50,740 på något sätt.

186 00:07:50,960 --> 00:07:52,780 2019 kommer inte bli långtråkigt är det vi säger.

187 00:07:52,780 --> 00:07:53,260 Nej, nej.

188 00:07:53,640 --> 00:07:55,200 Det är ett bra och strukturerat avsnitt.

189 00:07:55,360 --> 00:07:56,040 Ja, det får man väl säga.

190 00:07:56,140 --> 00:07:57,680 Tur är det inte ett strukturerat avsnitt

191 00:07:57,680 --> 00:07:58,740 utan ett nyårsavsnitt.

192 00:07:58,840 --> 00:08:01,100 Men det faller väl under samma kategori ungefär.

193 00:08:01,400 --> 00:08:02,840 Förra året var ett sånt här avsnitt

194 00:08:02,840 --> 00:08:06,120 extremt förvirrat och strukturerat.

195 00:08:06,840 --> 00:08:08,460 Jag tyckte det var riktigt underhållande.

196 00:08:09,360 --> 00:08:11,000 Inte för mig som försökte få fram

197 00:08:11,000 --> 00:08:12,560 vad våra spårdomar var fort

198 00:08:12,560 --> 00:08:14,620 samtidigt som jag försökte somna och lägga mig.

199 00:08:15,620 --> 00:08:17,700 Jag satte det i avsnittet

200 00:08:17,700 --> 00:08:19,040 på 2x-spyrd.

201 00:08:20,080 --> 00:08:20,880 Och det var bara chatter

202 00:08:20,880 --> 00:08:21,500 och nonstop.

203 00:08:21,500 --> 00:08:22,260 Och jag försökte så här.

204 00:08:22,380 --> 00:08:23,600 Men nu är vi fortfarande kvar på

205 00:08:23,640 --> 00:08:24,840 första spårdomen.

206 00:08:25,340 --> 00:08:27,180 Och någonstans när jag börjar känna det här

207 00:08:27,180 --> 00:08:29,620 det här är som en jävla galensk…

208 00:08:29,620 --> 00:08:31,200 Hur orkar någon lyssna på det här?

209 00:08:31,480 --> 00:08:32,760 Vad är det för fel på oss?

210 00:08:33,100 --> 00:08:34,760 Så helt plötsligt när jag är där och undrar

211 00:08:34,760 --> 00:08:37,180 vad är det som händer i det här jävla avsnittet egentligen?

212 00:08:37,700 --> 00:08:39,800 Så hör man Jesper i panik

213 00:08:39,800 --> 00:08:40,560 skrika ut.

214 00:08:40,920 --> 00:08:43,280 Vad pratar ni om? Vad är det som händer?

215 00:08:43,980 --> 00:08:45,920 Ja, då hade han zonat ut det där i allt.

216 00:08:46,080 --> 00:08:47,920 Ja, men det var ju bra. Då är han publikens röst.

217 00:08:48,040 --> 00:08:49,140 Och han är dessutom inte här

218 00:08:49,140 --> 00:08:50,060 vilket ni kanske har noterat.

219 00:08:50,140 --> 00:08:52,320 Han är nämligen i Nya Zeeland och har det gött.

220 00:08:52,340 --> 00:08:53,520 Så vi ska ha en tävling.

221 00:08:53,640 --> 00:08:57,180 Vi ska gissa vad var Jespers spårdom.

222 00:08:57,940 --> 00:09:00,260 Vi ska hitta på vad Jespers spårdom var.

223 00:09:00,780 --> 00:09:02,700 Nu ska vi gå in i våra gamla spårdomar.

224 00:09:03,080 --> 00:09:05,080 De vi gjorde 2018.

225 00:09:05,360 --> 00:09:06,620 För ganska exakt ett år sedan då.

226 00:09:07,200 --> 00:09:07,720 Exakt.

227 00:09:08,140 --> 00:09:09,900 Vi skulle kunna börja med Peters kanske.

228 00:09:10,400 --> 00:09:11,220 Oh my god.

229 00:09:11,620 --> 00:09:12,540 Vad förutspår du nu Peter?

230 00:09:13,180 --> 00:09:16,120 Om jag minns rätt så förutspår jag

231 00:09:16,120 --> 00:09:18,040 att dels

232 00:09:18,040 --> 00:09:19,800 att vi skulle börja få en massa AI

233 00:09:19,800 --> 00:09:20,680 i våra verktyg.

234 00:09:20,680 --> 00:09:22,680 Och det är…

235 00:09:23,260 --> 00:09:23,620 Och…

236 00:09:23,620 --> 00:09:27,440 För att få lite spex på det här

237 00:09:27,440 --> 00:09:29,380 så förutspådde jag även

238 00:09:29,380 --> 00:09:30,460 AI-buggar.

239 00:09:30,720 --> 00:09:33,260 Och att vi skulle få ett AI-relaterat säkerhetsvål.

240 00:09:33,620 --> 00:09:35,840 Och jag tror även att AI skulle bli ondskefullt.

241 00:09:35,840 --> 00:09:36,720 Ja, ta över världen.

242 00:09:37,040 --> 00:09:37,940 Att vara med där.

243 00:09:38,700 --> 00:09:41,660 Jag tänkte det. Man får inte ha ett feg spårdom.

244 00:09:41,680 --> 00:09:42,840 Nej, det är riktigt. Spänn bågen.

245 00:09:44,620 --> 00:09:45,940 Hur bra tycker vi

246 00:09:45,940 --> 00:09:47,520 att min spårdom föll ut?

247 00:09:47,840 --> 00:09:48,780 Alltså man har ju sett

248 00:09:48,780 --> 00:09:50,920 att det har gått en trend i AI

249 00:09:50,920 --> 00:09:51,940 och machine learning och så vidare.

250 00:09:52,140 --> 00:09:53,240 Så absolut, det finns ju…

251 00:09:53,240 --> 00:09:54,720 Det finns ju mycket mer nu

252 00:09:54,720 --> 00:09:55,740 kanske än vad det fanns innan.

253 00:09:56,180 --> 00:09:58,780 Jag vet inte om det har kommit så mycket till säkerhetsverktyg.

254 00:09:58,800 --> 00:10:00,440 Skulle det vara brandvägar och sånt där då kanske?

255 00:10:01,060 --> 00:10:01,280 Ja.

256 00:10:01,600 --> 00:10:04,780 Jag pratar så mycket om AI och ML i alla IDS och så vidare.

257 00:10:05,000 --> 00:10:07,760 IDS, IPS, även forensik

258 00:10:07,760 --> 00:10:08,680 börjar man titta på nu.

259 00:10:08,860 --> 00:10:11,060 Jag har inte sett så mycket konkret 2018

260 00:10:11,060 --> 00:10:12,260 som inte fanns redan 2017.

261 00:10:12,840 --> 00:10:14,680 Det har varit mycket snack om det här sjukt länge.

262 00:10:14,920 --> 00:10:17,380 Och sårbarheter i AI har vi väl inte direkt sett?

263 00:10:18,660 --> 00:10:19,100 Däremot.

264 00:10:19,240 --> 00:10:21,300 Sen väldigt specialiserad AI

265 00:10:21,300 --> 00:10:22,780 som machine learning.

266 00:10:23,240 --> 00:10:25,620 Som vi pratade om i det ostrukturella avsnittet

267 00:10:25,620 --> 00:10:25,960 förut.

268 00:10:26,120 --> 00:10:30,160 Där finns det ju

269 00:10:30,160 --> 00:10:31,420 attacker mot

270 00:10:31,420 --> 00:10:32,880 biometriska lösningar och sånt.

271 00:10:33,120 --> 00:10:35,240 Men väldigt extremt

272 00:10:35,240 --> 00:10:37,720 om man ska hävda att det är på något sätt en AI-relaterad attack.

273 00:10:38,220 --> 00:10:39,620 Men du kanske var inne på

274 00:10:39,620 --> 00:10:41,380 OVASP-föreläsningen vi var på?

275 00:10:42,380 --> 00:10:44,000 Det kanske var där det nämndes.

276 00:10:44,320 --> 00:10:46,200 Där pratade ju

277 00:10:46,200 --> 00:10:49,420 Thomas Olsson

278 00:10:49,420 --> 00:10:51,700 när han pratade om

279 00:10:51,700 --> 00:10:53,160 att AI

280 00:10:53,240 --> 00:10:55,240 är en väg att angripa

281 00:10:55,240 --> 00:10:57,000 till exempel machine learning

282 00:10:57,000 --> 00:10:57,760 eller att hitta

283 00:10:57,760 --> 00:10:59,740 var är

284 00:10:59,740 --> 00:11:02,640 var finns det hål

285 00:11:02,640 --> 00:11:04,620 i datasättet och

286 00:11:04,620 --> 00:11:07,480 man skulle avsiktligt kunna göra

287 00:11:07,480 --> 00:11:08,700 hål där

288 00:11:08,700 --> 00:11:11,320 machine learning missar

289 00:11:11,320 --> 00:11:12,900 stoppskyltar med väldigt

290 00:11:12,900 --> 00:11:15,220 selektiva hål i datasättet eller så.

291 00:11:16,120 --> 00:11:16,720 Ja just det.

292 00:11:17,500 --> 00:11:19,180 Det blev med hans att folk pratade lite om

293 00:11:19,180 --> 00:11:20,940 på SECTE dessutom sist.

294 00:11:20,940 --> 00:11:22,000 Hur man kan

295 00:11:22,000 --> 00:11:23,240 lura

296 00:11:23,240 --> 00:11:25,480 sådana recognition-grejer och sånt.

297 00:11:25,900 --> 00:11:27,300 Och där har jag även sett

298 00:11:27,300 --> 00:11:30,300 ett introt till ett talk

299 00:11:30,300 --> 00:11:31,140 som handlade om

300 00:11:31,140 --> 00:11:34,520 inte AI for security utan security for AI.

301 00:11:34,920 --> 00:11:38,260 Det vill säga hur bygger du en AI-modell

302 00:11:38,260 --> 00:11:39,240 eller en AI-maskin

303 00:11:39,240 --> 00:11:41,220 som faktiskt är

304 00:11:41,220 --> 00:11:42,500 motståndskraftig mot hack.

305 00:11:42,920 --> 00:11:43,740 För det har börjat komma

306 00:11:43,740 --> 00:11:45,840 att du använder AI

307 00:11:45,840 --> 00:11:48,400 eller attackerar AI-system

308 00:11:48,400 --> 00:11:50,460 inte bara genom att manipulera

309 00:11:50,460 --> 00:11:51,820 träningdata, alltså lura

310 00:11:51,820 --> 00:11:53,420 träningdata utan förmodligen då för att göra

311 00:11:53,420 --> 00:11:55,360 riktiga attacker om man säger så, klassiska attacker.

312 00:11:55,440 --> 00:11:57,760 Alltså hitta sådana i själva AI-datorn.

313 00:11:58,120 --> 00:11:59,880 Det måste jag faktiskt berätta om

314 00:11:59,880 --> 00:12:02,040 en ganska fräck

315 00:12:02,040 --> 00:12:04,140 cutting-edge-grej som man håller på med

316 00:12:04,140 --> 00:12:06,200 på Chalmers och som man presenterade

317 00:12:06,200 --> 00:12:08,340 på en konferens i Boston

318 00:12:08,340 --> 00:12:09,080 tror jag de var.

319 00:12:10,560 --> 00:12:11,720 När det gäller AI

320 00:12:11,720 --> 00:12:14,160 och säkerhet, det är att man

321 00:12:14,160 --> 00:12:15,720 vänder på det

322 00:12:15,720 --> 00:12:16,900 istället för att

323 00:12:16,900 --> 00:12:20,040 titta på, låta en AI

324 00:12:20,040 --> 00:12:21,100 IDS eller

325 00:12:21,100 --> 00:12:21,740 motsvarande AI-modell.

326 00:12:21,820 --> 00:12:23,240 När det gäller att göra prediction

327 00:12:23,240 --> 00:12:25,540 så gör man alltså

328 00:12:25,540 --> 00:12:27,340 man tittar på

329 00:12:27,340 --> 00:12:30,640 en momentan data

330 00:12:30,640 --> 00:12:32,420 som man sedan tittar på

331 00:12:32,420 --> 00:12:34,060 och jämför med

332 00:12:34,060 --> 00:12:35,700 historiken och säger

333 00:12:35,700 --> 00:12:37,720 skulle den här kunna vara

334 00:12:37,720 --> 00:12:39,900 eller man gör prediction och så säger man

335 00:12:39,900 --> 00:12:42,100 vad är den troliga

336 00:12:42,100 --> 00:12:43,820 nästa datasättpunkten

337 00:12:44,400 --> 00:12:45,320 i det här

338 00:12:45,320 --> 00:12:47,480 sättet och sen så jämför man

339 00:12:47,480 --> 00:12:50,200 ser den ut att tillhöra

340 00:12:50,200 --> 00:12:51,240 det

341 00:12:51,820 --> 00:12:53,800 som var den normala.

342 00:12:54,280 --> 00:12:55,660 Lite effekt faktiskt.

343 00:12:56,520 --> 00:12:57,380 Så man vänder.

344 00:12:57,880 --> 00:12:59,900 Så man letar efter de som sticker ut på något sätt då?

345 00:13:00,320 --> 00:13:01,360 Ja, det är ju sånt.

346 00:13:01,360 --> 00:13:01,640 Man

347 00:13:01,640 --> 00:13:05,680 så omvändningen

348 00:13:05,680 --> 00:13:05,960 till

349 00:13:05,960 --> 00:13:08,780 machine recognition

350 00:13:08,780 --> 00:13:11,160 så är det typ

351 00:13:11,160 --> 00:13:13,640 känna igen det som inte stämmer

352 00:13:13,640 --> 00:13:14,640 så det blir en annan

353 00:13:14,640 --> 00:13:16,100 detektering.

354 00:13:16,300 --> 00:13:18,980 Nu har jag väl fuckat upp beskrivningen av det här så Magnus

355 00:13:18,980 --> 00:13:21,080 kommer väl att ringa mig och gnälla.

356 00:13:21,820 --> 00:13:25,920 Men i stort så kan man säga att man då tittar på

357 00:13:25,920 --> 00:13:29,240 på outliers som då egentligen

358 00:13:29,240 --> 00:13:31,540 ser ut att

359 00:13:31,540 --> 00:13:34,620 avvika ifrån det som är

360 00:13:34,620 --> 00:13:38,460 förväntat då så att det är ett

361 00:13:39,740 --> 00:13:46,140 nytt sätt att använda AI för IDS egentligen istället för att göra en baselining

362 00:13:46,140 --> 00:13:50,740 som man då brukar göra och sen så gör anomalidetektion

363 00:13:50,740 --> 00:13:51,260 och sen så gör anomalidetektion.

364 00:13:51,820 --> 00:13:53,360

365 00:13:53,860 --> 00:13:55,660 försöker man liksom

366 00:13:55,920 --> 00:13:56,940 med hjälp av

367 00:13:58,980 --> 00:14:01,300 den ganska tidiga eller

368 00:14:01,540 --> 00:14:03,600 nya historiken så

369 00:14:03,860 --> 00:14:05,900 tittar man på om en datapunkt

370 00:14:06,160 --> 00:14:07,940 ser ut att tillhöra

371 00:14:09,480 --> 00:14:10,260 det normala.

372 00:14:10,260 --> 00:14:12,560 Okej, så det är mer dynamisk baselining om man säger så?

373 00:14:12,560 --> 00:14:13,060 Ja, just det.

374 00:14:13,060 --> 00:14:15,380 Istället för att sätta ett statiskt baselining

375 00:14:15,380 --> 00:14:17,680 så är den ständigt lärande så att säga.

376 00:14:17,680 --> 00:14:20,740 Det coola är att man gör detta med ganska så snåla

377 00:14:20,740 --> 00:14:21,780 resurser.

378 00:14:21,820 --> 00:14:24,640 Man har implementerat det på

379 00:14:24,640 --> 00:14:27,960 sådana här små odroids.

380 00:14:27,960 --> 00:14:30,260 Typ Raspberry Pi fast med

381 00:14:30,260 --> 00:14:32,320 multicore och

382 00:14:32,320 --> 00:14:33,600 GPU.

383 00:14:33,600 --> 00:14:38,200 Men en sån borde ju vara möjlig att lura om man så länge man gör det lite i taget.

384 00:14:38,200 --> 00:14:38,980 Absolut.

385 00:14:38,980 --> 00:14:44,100 Alla algoritmer går ju att lura.

386 00:14:44,100 --> 00:14:48,700 Det finns ju något gammalt avsnitt av Kordsnack där de pratar om vad det här egentligen är intelligens.

387 00:14:48,700 --> 00:14:50,500 De intervjuar,

388 00:14:50,500 --> 00:14:51,780 jag tror det är två stycken,

389 00:14:51,780 --> 00:14:53,820 en forskare som har varit och talat på någon konferens.

390 00:14:53,820 --> 00:14:55,880 Det här kan vara

391 00:14:55,880 --> 00:14:59,200 kanske 2017 eller 2016 eller någonstans så att

392 00:14:59,200 --> 00:15:01,760 det är ett gammalt Kordsnack avsnitt men

393 00:15:01,760 --> 00:15:05,600 där pratar de en del om att

394 00:15:05,600 --> 00:15:08,680 prata om att en AI är ond

395 00:15:08,680 --> 00:15:10,460 till exempel

396 00:15:10,460 --> 00:15:16,860 är nonsens för att då tillskriver du någon sorts mänsklig intention bakom agerandet vilket en

397 00:15:16,860 --> 00:15:20,700 annorlunda intelligens behöver liksom inte ha någonting som

398 00:15:20,700 --> 00:15:21,740 matchar in på ett

399 00:15:21,740 --> 00:15:24,300 traditionellt synsätt på det sättet.

400 00:15:24,300 --> 00:15:28,660 Och det de tar upp som en annan sån här rolig grej det är

401 00:15:28,660 --> 00:15:31,220 vissa bläckfiskar

402 00:15:31,220 --> 00:15:34,280 är vi väldigt övertygade om att de är smarta.

403 00:15:34,280 --> 00:15:37,620 Att de är riktigt, riktigt smarta men det är svårt

404 00:15:37,620 --> 00:15:41,960 att få vissa av dem att medverka i intelligenstester för att de

405 00:15:41,960 --> 00:15:48,360 de verkar förstå att de är under test och de verkar tycka att människor är så fruktansvärt ointressanta så att

406 00:15:48,360 --> 00:15:50,920 de liksom inte aktivt deltar i testandet.

407 00:15:51,740 --> 00:15:54,300 This is beneath me.

408 00:15:54,300 --> 00:15:59,940 Det finns ju djur där vi kan identifiera och observera vissa typer av intelligenser som

409 00:15:59,940 --> 00:16:06,080 en del bläckfiskar och en del korpar och liknande att du kan göra massa lekar som testar deras

410 00:16:06,080 --> 00:16:07,360 intelligens och sådant.

411 00:16:07,360 --> 00:16:14,020 Och det beror väldigt mycket på att de tycker att det är kul att delta och göra leken och att det är så här men

412 00:16:14,020 --> 00:16:16,060 det finns intelligenser

413 00:16:16,060 --> 00:16:20,420 som är svåra att jämföra med våra tester för att de skiter i testet.

414 00:16:20,420 --> 00:16:21,700 Det påminner mig om

415 00:16:21,700 --> 00:16:25,280 råttorna i Liftans kvart i galaxen.

416 00:16:25,280 --> 00:16:28,860 Om ni minns den jävla boken som är helt fantastisk där

417 00:16:28,860 --> 00:16:33,220 man har hela tiden trott att det är människor som har utfört experiment på råttor.

418 00:16:33,220 --> 00:16:37,320 Men i själva verket är det råttorna som har experimenterat på människorna.

419 00:16:37,320 --> 00:16:41,420 Men det var ett sidospår men vi måste ju ge dig någon form av poäng här på din fördom.

420 00:16:41,420 --> 00:16:45,500 Vad tycker ni om hur bra jag har lyckats här?

421 00:16:45,500 --> 00:16:46,280 Sådär.

422 00:16:46,280 --> 00:16:51,660 När vi sammanfattar 2018 så säger ju inte jag att AI-attackar

423 00:16:51,700 --> 00:16:54,260 och AI-defens mot varandra direkt.

424 00:16:54,260 --> 00:16:55,540 Eller AI-war.

425 00:16:55,540 --> 00:16:58,100 Att AI har ökat eller sådant.

426 00:16:58,100 --> 00:17:00,140 Och grejen var ju att när jag gjorde den här predictionen

427 00:17:00,140 --> 00:17:08,080 det var väl efter att han och Mr. Tesla killen Elon Musk och några andra hade pratat om AI-risker och så här.

428 00:17:08,080 --> 00:17:12,940 Så att jag hade ju liksom stora tänkare att stötta mig på.

429 00:17:12,940 --> 00:17:16,280 Men 2018 blev nog inte riktigt året där de fick rätt.

430 00:17:16,280 --> 00:17:19,600 Men samtidigt är det ju ett tokfel eftersom jag tycker att i stort så har ju

431 00:17:19,600 --> 00:17:21,660 ML och AI varit en snackis i år.

432 00:17:21,700 --> 00:17:23,240 Ja, det tycker jag.

433 00:17:23,240 --> 00:17:26,300 Det är det alla studenter vill läsa.

434 00:17:26,300 --> 00:17:28,360 Ja, men det är ju superporrigt.

435 00:17:28,360 --> 00:17:29,900 Det har gått framåt men…

436 00:17:29,900 --> 00:17:31,420 Inte en halv poäng.

437 00:17:31,420 --> 00:17:32,960 Men kanske 0,2.

438 00:17:32,960 --> 00:17:34,500 0,2 kan vi ge dig.

439 00:17:34,500 --> 00:17:36,300 Vad är skalan?

440 00:17:36,300 --> 00:17:37,820 En poäng är rätt.

441 00:17:37,820 --> 00:17:41,420 Så du får 20 procent rätt. Det är ändå rätt okej.

442 00:17:41,420 --> 00:17:42,940 Mattias.

443 00:17:42,940 --> 00:17:44,480 Du tog dig på en stor webbsågaret.

444 00:17:44,480 --> 00:17:46,780 Du stal nämligen min.

445 00:17:46,780 --> 00:17:50,620 Ska vi vara helt ärliga så var det ju så här. Jag har läst på.

446 00:17:50,620 --> 00:17:53,700 Du tog dig på en riktigt trasig, ett stort webbrånverk.

447 00:17:53,700 --> 00:17:57,780 Ja, jag började ju med att prata 2017, alltså året innan det.

448 00:17:57,780 --> 00:18:03,420 Då sa jag automotive attacks in the wild med fokus på egentligen back-end-attackar.

449 00:18:03,420 --> 00:18:09,300 Och det hade ju inte hänt så mycket sånt 2017 så jag ville ju helst nästan fortsätta med den.

450 00:18:09,300 --> 00:18:11,620 Men det var ju för lätt att säga det.

451 00:18:11,620 --> 00:18:15,960 Och sen så tänkte jag även, en annan lätt självklar grej var ju Spectrum Meltdown.

452 00:18:15,960 --> 00:18:19,540 Att det kommer bli mer eftersom den har ju precis hänt och det var ju så självklart det skulle komma mer och sånt.

453 00:18:19,540 --> 00:18:20,580 Ja. Men det var också fegt.

454 00:18:20,580 --> 00:18:23,900 Så då hoppade jag på något helt annat och så stor webbsågrahet.

455 00:18:23,900 --> 00:18:26,460 Och där kan vi ju se att jag är ju lite före min tid då.

456 00:18:26,460 --> 00:18:31,340 För att under 2018 så har vi ju börjat se back-end-attacker i automotive settings.

457 00:18:31,340 --> 00:18:36,700 Fortfarande inga OEMer, alltså biltillverkare, som egentligen har fått ta det så hårt.

458 00:18:36,700 --> 00:18:39,780 Annat än att de har fått lite data breaches och sånt där.

459 00:18:39,780 --> 00:18:43,100 Men rena telematikattacker och sånt med back-end har vi inte sett där.

460 00:18:43,100 --> 00:18:50,540 Däremot finns det i alla fall två car sharing liknande företag och även ett eftermonterat larmföretag.

461 00:18:50,580 --> 00:18:52,620 Som har åkt på det på riktigt.

462 00:18:52,620 --> 00:18:56,980 Så att man liksom via back-end-delarna kan sno bilar.

463 00:18:56,980 --> 00:19:01,340 Men nu tycker jag att du sitter här och försvarar din prediction för ett år längre fram i tiden.

464 00:19:01,340 --> 00:19:04,660 För att nyansera min bild så vill jag gärna ta med det.

465 00:19:04,660 --> 00:19:09,780 Och samma sak måste vi hävda där Spectrum Meltdown som var en potentiell spaning.

466 00:19:09,780 --> 00:19:14,140 Den har ju definitivt slått till det i 2018. Den kommer ju fan varannan månad kommer en ny grej.

467 00:19:14,140 --> 00:19:15,420 Så är det definitivt. Men det går inte det.

468 00:19:15,420 --> 00:19:18,480 Nej, det går inte det. Utan det var som sagt stora webbsågraheter.

469 00:19:18,480 --> 00:19:20,540 Och det var dessutom specifikt javascript.

470 00:19:20,540 --> 00:19:22,340 Ramverk som skulle åka på det.

471 00:19:22,340 --> 00:19:23,860 Jag vet att du nämnde Angler bland annat.

472 00:19:23,860 --> 00:19:26,420 Och det har ju inte hänt då. De har haft sårbarheter.

473 00:19:26,420 --> 00:19:30,780 De har haft många sårbarheter. Angler tror jag har haft 7-8 stycken grejer.

474 00:19:30,780 --> 00:19:35,640 Men alla ligger på typ 6,5 på CVSS eller någonting. Så det har inte varit så jätteallvarligt.

475 00:19:35,640 --> 00:19:39,480 Jag såg att React hade också några. Voo hade väl en som var fetast.

476 00:19:39,480 --> 00:19:42,040 Men den är väl inte så spridd vad jag vet Voo.

477 00:19:42,040 --> 00:19:44,600 Så där får vi nog säga fail på den.

478 00:19:44,600 --> 00:19:46,140 Jag tror också det.

479 00:19:46,140 --> 00:19:48,180 Det är nog nolla på den alltså.

480 00:19:48,180 --> 00:19:49,720 Däremot Apache Struts.

481 00:19:49,720 --> 00:19:50,500 Jo.

482 00:19:50,500 --> 00:19:53,320 Men inte så mycket javascript där.

483 00:19:53,320 --> 00:19:56,640 Nej, inte faktiskt. Men ja, hej.

484 00:19:56,640 --> 00:19:59,980 Om vi ska gå på din historik här då.

485 00:19:59,980 --> 00:20:02,280 Så lär vi förmodligen se dig under 2019.

486 00:20:02,280 --> 00:20:03,820 Ja, nästa år.

487 00:20:03,820 --> 00:20:09,960 Så det är ett stalltips om ni vill ha en säker häst för nästa prediction.

488 00:20:09,960 --> 00:20:11,500 Jag tänkte inte fega i år.

489 00:20:11,500 --> 00:20:13,800 Din bunker nu.

490 00:20:13,800 --> 00:20:16,620 Och apropå att inte fega då, Rickard.

491 00:20:16,620 --> 00:20:19,680 Du hade ju en prediction som gick ut på en stor data breach.

492 00:20:19,680 --> 00:20:20,460 Ja.

493 00:20:20,460 --> 00:20:23,540 Precis.

494 00:20:23,540 --> 00:20:26,860 Det har väl varit ett par stycken

495 00:20:26,860 --> 00:20:32,500 som jag skulle vilja ha det till att jag fått rätt.

496 00:20:32,500 --> 00:20:35,820 Jag sa till och med att någon av de stora drakarna skulle åka på.

497 00:20:35,820 --> 00:20:38,120 Någon av de som harvestar vår information.

498 00:20:38,120 --> 00:20:41,200 De skulle bli tagna med byxorna nere.

499 00:20:41,200 --> 00:20:44,780 Du vet att du dessutom nämnde video- och hälsodata bland annat.

500 00:20:44,780 --> 00:20:47,340 Stor personal identifiable information.

501 00:20:47,340 --> 00:20:48,360 Absolut.

502 00:20:48,360 --> 00:20:49,380 Det gjorde jag nog.

503 00:20:50,460 --> 00:20:54,820 Jag tänker Cambridge Analytica-debattlet.

504 00:20:54,820 --> 00:21:01,980 Det var ju ett stort data breach där människor kommer faktiskt att bry sig.

505 00:21:01,980 --> 00:21:06,840 Jag tror att det slog ner och folk började fundera lite på det.

506 00:21:06,840 --> 00:21:12,980 Det har ju varit flera gånger som det har varit stora uppebord

507 00:21:12,980 --> 00:21:16,820 som har försökt få alla att sluta använda fejan och liknande.

508 00:21:16,820 --> 00:21:17,860 Absolut.

509 00:21:17,860 --> 00:21:19,900 Men Cambridge Analytica.

510 00:21:19,900 --> 00:21:21,700 Den tyckte jag väl…

511 00:21:21,700 --> 00:21:26,560 Även om det inte var ett data breach utan det var ju mer en data misuse.

512 00:21:26,560 --> 00:21:31,420 Ja och det tillsammans med det har ju varit en del sådana här interna utvecklarbrev och sådant där

513 00:21:31,420 --> 00:21:34,500 som släpptes bara för en månad sedan från Facebook just.

514 00:21:34,500 --> 00:21:38,080 Hur de resonerade i vissa privacy-fall och sådant internt.

515 00:21:38,080 --> 00:21:40,120 Det fick ju ett jävla skruv det.

516 00:21:40,120 --> 00:21:45,760 Så jag kan nog hävda att även om inte data breachen hände så reaktionen på det definitivt.

517 00:21:45,760 --> 00:21:47,300 Reaktionen fanns där definitivt.

518 00:21:47,300 --> 00:21:49,860 Sen om vi då ska prata privacy-data.

519 00:21:49,860 --> 00:21:56,000 Det som har blivit exponerat så har ju tyska Bundestag åkt på det så det ryker om det.

520 00:21:56,000 --> 00:21:57,280 Fast det är ju inte…

521 00:21:57,280 --> 00:21:59,340 Det är ju mer riktade hackerattacker där man har liksom…

522 00:21:59,340 --> 00:22:01,120 Det är mot individer som har det mot Bundestag.

523 00:22:01,120 --> 00:22:04,200 Där man har gått ut och liksom lagt ut deras privata konversationer.

524 00:22:04,200 --> 00:22:09,060 Och där skulle man väl dessutom gärna hävda att visserligen det här genomfördes i december men det upptäcktes i januari.

525 00:22:09,060 --> 00:22:11,620 Nej, det publicerades i januari.

526 00:22:11,620 --> 00:22:15,720 Nej, publicerades i december, upptäcktes av dem i januari.

527 00:22:15,720 --> 00:22:17,760 Första december gjordes första publikationen.

528 00:22:17,760 --> 00:22:19,820 Jo, men de upptäckte det i januari.

529 00:22:19,860 --> 00:22:23,180 Ja, om inte tyska underrättade tjänsten.

530 00:22:23,180 --> 00:22:23,960 Nej, nej.

531 00:22:23,960 --> 00:22:27,280 Men ja, det blev i alla fall stort den tredje januari.

532 00:22:27,280 --> 00:22:28,300 Ja, den…

533 00:22:28,300 --> 00:22:29,840 Jag tycker vi kan räkna med 2018.

534 00:22:29,840 --> 00:22:31,640 Den gick publikt i januari.

535 00:22:31,640 --> 00:22:33,420 Men det är en stor data breach.

536 00:22:33,420 --> 00:22:37,780 Däremot, vad hette det företaget Equifax? Var det under 2018?

537 00:22:37,780 --> 00:22:39,820 Nej, det kunde inte vara.

538 00:22:39,820 --> 00:22:40,860 Det var 2017.

539 00:22:40,860 --> 00:22:42,640 Det känns som att det var in the before time.

540 00:22:42,640 --> 00:22:43,660 Jag tror nästan att det var NHL.

541 00:22:43,660 --> 00:22:45,460 Jag kan googla.

542 00:22:45,460 --> 00:22:48,540 Alltså de som åkte på det och läckte…

543 00:22:48,540 --> 00:22:49,040 Just det.

544 00:22:49,040 --> 00:22:51,340 Typ alla amerikaners…

545 00:22:51,340 --> 00:22:52,620 Kredithistorik.

546 00:22:52,620 --> 00:22:53,640 Ja.

547 00:22:53,640 --> 00:22:55,700 Men Equifax var fan förra året.

548 00:22:55,700 --> 00:22:58,260 I så fall får du en full pott på den, skulle jag säga.

549 00:22:58,260 --> 00:22:59,540 För den är ju…

550 00:22:59,540 --> 00:23:00,560 Ja, den är grym.

551 00:23:00,560 --> 00:23:01,320 Den är ju väldigt bra.

552 00:23:01,320 --> 00:23:05,160 Den är ju inte hälsodata, men den har serien kreditupplysningsdata och…

553 00:23:05,160 --> 00:23:06,960 Var inte till och med social security numbers med och sånt?

554 00:23:06,960 --> 00:23:07,980 Jo, alltihopa.

555 00:23:07,980 --> 00:23:10,280 Det är ju rätt mycket. Det kan vi inte komma och åka…

556 00:23:10,280 --> 00:23:11,560 Det kan vi inte sticka under stol med.

557 00:23:11,560 --> 00:23:12,340 Just det.

558 00:23:12,340 --> 00:23:14,640 Den hade jag glömt bort.

559 00:23:14,640 --> 00:23:17,720 Ja, Equifax var kvart 2017.

560 00:23:17,720 --> 00:23:19,000 Eeeeeeh!

561 00:23:19,000 --> 00:23:22,700 Med maj till juli 2017.

562 00:23:22,700 --> 00:23:24,880 Close, but no cigar.

563 00:23:24,880 --> 00:23:27,440 Sorry, men jag skulle kunna släcka mig till ett halvt poäng.

564 00:23:27,440 --> 00:23:28,220 Jag håller med.

565 00:23:28,220 --> 00:23:33,600 Ett halvt poäng för du namnsatte Google och Facebook.

566 00:23:33,600 --> 00:23:35,640 Och Facebook tycker jag har åkt på det rätt hårt i år.

567 00:23:35,640 --> 00:23:36,160 Absolut.

568 00:23:36,160 --> 00:23:38,720 De har ju suttit i sin första års utfrågning.

569 00:23:38,720 --> 00:23:39,220 Ja.

570 00:23:40,240 --> 00:23:41,280 Så definitivt.

571 00:23:41,280 --> 00:23:47,680 Cambridge Analytica’s moderbolag dömdes nu till böter.

572 00:23:47,720 --> 00:23:53,800 För någonting, vad det var, om jag får tjuvläsa innantill.

573 00:23:55,380 --> 00:24:01,020 Och jo, de plidede giltig för att de hade

574 00:24:01,020 --> 00:24:07,580 failing to comply with an enforcement notice issued by the National Data Protection Watchdog.

575 00:24:08,580 --> 00:24:08,860 Okej.

576 00:24:09,440 --> 00:24:13,420 Så det är en smäll på fingrarna för det var typ 15 000 pund.

577 00:24:14,120 --> 00:24:15,520 Cost of doing business.

578 00:24:15,520 --> 00:24:20,400 Men det är ändå en moralisk seger, får vi väl säga.

579 00:24:20,880 --> 00:24:22,580 Ja, och det kanske är prioriserande.

580 00:24:23,300 --> 00:24:26,420 Men ja, 0,5 där är jag villig.

581 00:24:26,540 --> 00:24:27,980 Coolt, jag tar dem.

582 00:24:29,320 --> 00:24:32,180 Så vi går vidare till Jesper, han är ju inte här och kan försvara sig.

583 00:24:32,860 --> 00:24:35,080 Men han hade ju ändå en prediction från förra året och den var

584 00:24:35,080 --> 00:24:39,720 att han trodde på stora attacker mot intressinfrastruktur, typ BGP och liknande.

585 00:24:39,960 --> 00:24:41,100 Eller DNS eller något där va?

586 00:24:41,100 --> 00:24:41,280 Ja.

587 00:24:43,300 --> 00:24:45,400 Det har väl varit ett antal om BGP?

588 00:24:45,520 --> 00:24:46,400 Ajax och så?

589 00:24:47,300 --> 00:24:50,060 Ja, fast ingenting som har blivit så jävla stort.

590 00:24:50,240 --> 00:24:52,120 Jag vet att det senaste vi pratade om var ju att

591 00:24:52,120 --> 00:24:55,260 det började gå lite trafik genom Afrika och Asien.

592 00:24:56,020 --> 00:24:57,640 Men det var ingen så här…

593 00:24:57,640 --> 00:25:01,720 Det verkade ju dessutom som att det var ett misstag snarare än en attack.

594 00:25:02,280 --> 00:25:05,640 Eller ja, det verkar ju inte ha varit superfet impact.

595 00:25:05,740 --> 00:25:10,860 Det har varit ett antal incidenter under 2018, men…

596 00:25:10,860 --> 00:25:12,040 Jag vet inte om vi kan säga…

597 00:25:12,040 --> 00:25:14,200 The year of infrastructure attacks?

598 00:25:14,500 --> 00:25:14,820 Nej.

599 00:25:15,520 --> 00:25:24,380 Så jag vet inte om det stack 2018 ut överhuvudtaget från tidigare år när det kom till det här.

600 00:25:24,520 --> 00:25:27,600 Nej, inte när det kommer till infrastruktur. Det tycker jag inte.

601 00:25:28,020 --> 00:25:28,860 Så det är nolla på det?

602 00:25:29,080 --> 00:25:30,140 Ja, definitivt.

603 00:25:31,280 --> 00:25:32,740 Han är inte här och kan försvara sig.

604 00:25:33,800 --> 00:25:34,580 Exakt så tänkte jag.

605 00:25:34,680 --> 00:25:36,560 Så jag skulle säga att, vad ligger vi på här nu då?

606 00:25:36,620 --> 00:25:38,940 Du fick 0,5, Rickard.

607 00:25:39,400 --> 00:25:42,020 Och Peter kvarade in på 0,2 tror jag att du sa va?

608 00:25:42,260 --> 00:25:43,000 Jag ligger på noll.

609 00:25:43,120 --> 00:25:44,740 Du ligger på noll och Jesper på noll.

610 00:25:44,740 --> 00:25:45,480 Så just nu ligger vi…

611 00:25:45,480 --> 00:25:46,860 Då ligger vi då på 0,7.

612 00:25:47,480 --> 00:25:48,240 Jag tror vi är 0,8.

613 00:25:48,560 --> 00:25:50,980 Det var ju ett ganska kassavara produkt.

614 00:25:51,340 --> 00:25:54,540 Jo, men vi kan tydligen ligga ett år liksom före.

615 00:25:55,760 --> 00:25:59,340 Och jag då förutspådde all out cyber war.

616 00:26:01,320 --> 00:26:02,540 För jag spände på bågen lite.

617 00:26:02,780 --> 00:26:03,940 Eller egentligen det jag sa då.

618 00:26:04,020 --> 00:26:09,680 För vi har ju sett såklart att militär och underrättet tjänst och andra har gjort dåliga saker på internet.

619 00:26:10,260 --> 00:26:11,360 Men det var inte riktigt det.

620 00:26:11,600 --> 00:26:12,560 För det var ju så fegt.

621 00:26:12,800 --> 00:26:15,100 Så det jag förutspådde var ju mer eller mindre.

622 00:26:15,480 --> 00:26:19,260 Att öppet och tydligt, nu är det cyber warfare.

623 00:26:19,280 --> 00:26:20,340 Nu förklarar vi krig.

624 00:26:20,560 --> 00:26:22,740 Ja, och vi använder detta som krigsföring.

625 00:26:23,120 --> 00:26:25,100 Vi slår ut infrastruktur och annat.

626 00:26:25,680 --> 00:26:27,560 Och det blir uppenbart.

627 00:26:27,720 --> 00:26:29,520 Och det tycker jag inte riktigt att vi har sett.

628 00:26:29,520 --> 00:26:29,880 Nej.

629 00:26:30,920 --> 00:26:33,060 Det är mycket möjligt att det har hänt.

630 00:26:33,200 --> 00:26:35,620 Det är fortfarande mycket cloak and dagger känns det som.

631 00:26:35,700 --> 00:26:38,240 Ja, men jag tycker inte att vi kan ge mig poäng på det.

632 00:26:38,680 --> 00:26:38,700 Nej.

633 00:26:39,360 --> 00:26:44,620 Det är extremt mycket informationsinsamling.

634 00:26:45,480 --> 00:26:47,900 Det är mycket spionage på nätet.

635 00:26:47,980 --> 00:26:50,240 Och mycket fake news.

636 00:26:50,660 --> 00:26:51,860 Väldigt mycket propaganda.

637 00:26:52,100 --> 00:26:55,680 Påverkansoperation har definitivt pågått under 2018.

638 00:26:55,680 --> 00:27:01,880 Men det var där jag ville särskilda lite från underrättelseverksamhet och den typen av grejer till militära.

639 00:27:02,220 --> 00:27:02,940 Tekniska attacker.

640 00:27:04,460 --> 00:27:08,060 Man kan till och med säga att det har ju varit mindre 2018 än det var 2017.

641 00:27:09,220 --> 00:27:11,240 Så då lär det ju förmodligen hända i år då.

642 00:27:11,600 --> 00:27:12,140 Ja, precis.

643 00:27:12,140 --> 00:27:13,020 Om vi ska tro på vår historia.

644 00:27:13,160 --> 00:27:15,240 Ja, men allt det här vi har sagt det kommer ju hända i nästa.

645 00:27:15,480 --> 00:27:16,840 Under 2019.

646 00:27:17,800 --> 00:27:20,380 Så jag tror tyvärr att vi landar på 0,7.

647 00:27:21,280 --> 00:27:22,460 Sämre resultat än förra året.

648 00:27:22,480 --> 00:27:23,600 Det har gått ner 0,1.

649 00:27:24,240 --> 00:27:27,600 Och det är ju en väldigt hårt typad skala det här.

650 00:27:27,740 --> 00:27:31,060 Så det är ju verkligen så att vi i absoluta mått är 0,1 sämre än förra året.

651 00:27:31,080 --> 00:27:31,600 Ja, det är vi faktiskt.

652 00:27:32,040 --> 00:27:33,040 Vi går inte att diskutera.

653 00:27:36,100 --> 00:27:41,040 Men om vi går över till marginära poäng så kan man inte jämföra om det är större eller mindre.

654 00:27:41,220 --> 00:27:42,480 Så vi vann.

655 00:27:43,480 --> 00:27:44,380 Det kan vi sluta oss till.

656 00:27:45,480 --> 00:27:46,440 Nej, men vi får väl se då.

657 00:27:46,560 --> 00:27:51,360 Som Mattias sa där att vi ligger ju alltid ett år för långt fram.

658 00:27:51,600 --> 00:27:55,000 Så att alla våra predictions för förra året kommer inte träffa under 2019.

659 00:27:55,900 --> 00:27:56,260 Förmodligen.

660 00:27:56,480 --> 00:27:56,840 Helt enkelt.

661 00:27:56,960 --> 00:28:02,600 Men det ska vi skita i nu för nu ska vi gå över till vad vi faktiskt har för nya predictions för detta året.

662 00:28:03,160 --> 00:28:04,720 2019, here we come.

663 00:28:04,800 --> 00:28:05,920 Och vi kan väl börja med Mattias.

664 00:28:06,160 --> 00:28:10,380 Ja, det var en jävla bra idé eftersom jag inte alls har lyckats vaska fram någonting.

665 00:28:11,780 --> 00:28:13,620 Jag försökte sammanfatta 2018.

666 00:28:13,740 --> 00:28:15,060 Vad var det egentligen som hände 2018?

667 00:28:15,060 --> 00:28:18,700 Jag tyckte att den trenden vi kunde se var supply chain-attackar.

668 00:28:19,540 --> 00:28:23,100 Dels hade vi ju riktiga sådana javascript-baserade NPM-grejer.

669 00:28:23,580 --> 00:28:30,760 Och även Magecart som gick mot e-commerce-sajten direkt till moderskeppet för att sluta alla kunderna.

670 00:28:31,380 --> 00:28:35,400 Och sen var det ju det här fake, eller probably fake hårdvaruinplanten.

671 00:28:35,540 --> 00:28:39,240 Men det känns ju som supply chain, det vill säga direkt mot målet är jobbigt.

672 00:28:40,100 --> 00:28:43,580 Men gå till deras leverantörer kändes som att det var lite trend under 2018.

673 00:28:45,060 --> 00:28:48,360 Då kan man ju säga att det blir mer sånt, men det är ju också jävligt tråkigt.

674 00:28:48,380 --> 00:28:50,080 Och fake news kommer det att bli mer av.

675 00:28:50,200 --> 00:28:52,500 Jag tycker more of the same in predictions som är tråkiga.

676 00:28:52,640 --> 00:28:54,140 Ja, jag håller med helt.

677 00:28:55,040 --> 00:28:57,000 Även om det förmodligen garanterat är rätt.

678 00:28:57,600 --> 00:28:58,660 Nej, men vi får väl göra någonting.

679 00:28:58,780 --> 00:29:01,980 Jag får försöka ta en spin på Brexit.

680 00:29:02,660 --> 00:29:05,120 Eller, ja det är det enda roligaste som kommer hända i år.

681 00:29:05,240 --> 00:29:07,760 Ur säkerhetsperspektiv, vad kommer det hända?

682 00:29:08,440 --> 00:29:11,800 Jo, vad kommer det få för konsekvenser?

683 00:29:12,100 --> 00:29:14,800 Men, Europol kanske gör en…

684 00:29:15,060 --> 00:29:20,940 Pollexit och blir en egen organisation och slutar med en polismyndighet.

685 00:29:20,940 --> 00:29:24,940 Någon kommer att attackera Storbritannien, varför kommer de att göra det?

686 00:29:24,940 --> 00:29:28,940 Storbritannien kanske får helt nya domedagslagar vad gäller övervakning.

687 00:29:28,940 --> 00:29:30,940 Du menar värre än de redan har?

688 00:29:30,940 --> 00:29:32,940 Ja, i slutet av Brexit.

689 00:29:32,940 --> 00:29:34,940 Jag är skeptisk till det.

690 00:29:34,940 --> 00:29:36,940 Nu ska jag inte lägga ord i din mun här, utan du får klämma fram någonting.

691 00:29:36,940 --> 00:29:44,880 Ja, jag tror att vi kommer att se en Nordirländsk

692 00:29:44,880 --> 00:29:50,880 cyberfront som kommer ta form och som kommer helt och hållet fokusera på

693 00:29:50,880 --> 00:29:54,880 brittiska politiska mål.

694 00:29:54,880 --> 00:29:56,880 I-R-C-A.

695 00:29:56,880 --> 00:29:58,880 Ja, typ så.

696 00:29:58,880 --> 00:30:00,880 I-R-C-A.

697 00:30:00,880 --> 00:30:02,880 Som kommer fokusera på politiska mål i den brittiska…

698 00:30:02,880 --> 00:30:04,880 Eller C-I-R-A.

699 00:30:04,880 --> 00:30:06,880 Japp.

700 00:30:06,880 --> 00:30:10,880 För de är sjukt missnöjda med den här dealen de får.

701 00:30:10,880 --> 00:30:12,880 Ja, men det är väl en bra prediction.

702 00:30:12,880 --> 00:30:14,880 Brexit means Brexit.

703 00:30:14,880 --> 00:30:20,880 Och då menar du alltså att detta kommer att vara organiserat på riktigt?

704 00:30:20,880 --> 00:30:26,880 På riktigt vet jag inte, men på samma sätt som vi hade en Syrian cyber-army eller vad det heter.

705 00:30:26,880 --> 00:30:34,880 Vi kommer på samma sätt att få en sån underjordisk nordirländsk som kommer att utföra någon slags attacker.

706 00:30:34,880 --> 00:30:38,880 Måste jag väl gå in och spesa exakt vilken C-I-R-A de kommer att använda också?

707 00:30:38,880 --> 00:30:40,880 Nej.

708 00:30:40,880 --> 00:30:42,880 Men du kan ju prata om vad de kommer att angripa.

709 00:30:42,880 --> 00:30:46,880 Ja, det vill säga alltså Labour och Tories och…

710 00:30:46,880 --> 00:30:48,880 Men inte typ terrorism genom cyber?

711 00:30:48,880 --> 00:30:50,880 Nej, nej, nej. Inte infrastruktur.

712 00:30:50,880 --> 00:30:52,880 De kommer att slå till mot cyberbåtarna sen ska de frakta cyberpaket.

713 00:30:52,880 --> 00:30:54,880 Det vill säga logiska informationsattacker liksom.

714 00:30:54,880 --> 00:30:56,880 Ja, okej.

715 00:30:56,880 --> 00:30:58,880 Ja, men det är väl en decent prediction skulle jag säga.

716 00:30:58,880 --> 00:31:00,880 Richard?

717 00:31:00,880 --> 00:31:02,880 Ja…

718 00:31:02,880 --> 00:31:08,880 Lite sådär för att spinna vidare på det som Peter prediktade förra året.

719 00:31:08,880 --> 00:31:10,880 Så tänkte jag säga såhär att…

720 00:31:10,880 --> 00:31:24,880 2019 är det året då börsen kraschar på riktigt och AI beskylls för att vara anledningen.

721 00:31:24,880 --> 00:31:26,880 Såhär supersnabbtrading.

722 00:31:26,880 --> 00:31:28,880 Men vad är cyber i detta någonstans?

723 00:31:28,880 --> 00:31:34,880 Jag tänker just, det hänger inte så mycket ihop med det, men just att AI styr ju otroligt mycket av handeln.

724 00:31:34,880 --> 00:31:36,880 Flashtrading.

725 00:31:36,880 --> 00:31:38,880 Flashtrading och det är margin trading och du ligger och följer…

726 00:31:38,880 --> 00:31:40,880 Ja, det har jag med mig också. Ja, det har jag med mig också.

727 00:31:40,880 --> 00:31:42,880 Men för att det här ska vara it-säkerhet så måste det här vara en attack.

728 00:31:42,880 --> 00:31:44,880 Jo, men jag tror att jag vet hur attacken går till.

729 00:31:44,880 --> 00:31:54,880 Men jag tänker att algoritmerna vrids till och man beskyller AI för att hela börsen går i botten.

730 00:31:54,880 --> 00:31:56,880 Men jag sa att det saknar fortfarande it-säkerhetsaspekter.

731 00:31:56,880 --> 00:31:58,880 Det här har man ju nästan påstått med sådana här fast trading och sådant.

732 00:31:58,880 --> 00:32:08,880 Men jag ser framför mig attackscenariot att någon ligger och lyssnar på det här nätet och börjar lära sig hur de här algoritmerna funkar.

733 00:32:08,880 --> 00:32:15,880 Och börjar sakta men säkert kartlägga var där brytgränsen är när de går sönder.

734 00:32:15,880 --> 00:32:31,880 Och sen vid tiden T så skickar man ut de specifika transaktionsmönstren som får en stor del av de olika tradingapplikationerna att börja rasa samman och lösa ut sina panikoperationer.

735 00:32:31,880 --> 00:32:35,880 Och det blir ju en amplifierad reaktion.

736 00:32:35,880 --> 00:32:37,880 Om någonting börjar hända så börjar de andra haka på.

737 00:32:37,880 --> 00:32:43,880 Och dessutom så löser det ut en massa stopp-losser som gör att det rasar ytterligare.

738 00:32:43,880 --> 00:32:46,880 Men då menar du på riktigt att det är en aktiv manipulering av det här?

739 00:32:46,880 --> 00:32:47,880 Nej.

740 00:32:47,880 --> 00:32:49,880 Men då är det ingen attack.

741 00:32:49,880 --> 00:32:50,880 Det är ingen cyberattack.

742 00:32:50,880 --> 00:32:53,880 Det är fan det i säkerhetspodcasten här. Det är inte en jävla finansforum.

743 00:32:53,880 --> 00:32:54,880 Nej, det är sant.

744 00:32:54,880 --> 00:32:56,880 Jag tycker att du ska ta min valut.

745 00:32:56,880 --> 00:32:58,880 Ja, jag håller med dig.

746 00:32:58,880 --> 00:33:00,880 Min tweak gör den värdig.

747 00:33:00,880 --> 00:33:06,880 Okej, jag köper att det är manipulerat på något sätt.

748 00:33:06,880 --> 00:33:08,880 Så att det liksom går i spinn.

749 00:33:08,880 --> 00:33:11,880 Någon benefitar på att säga att marknaden kraschar?

750 00:33:11,880 --> 00:33:12,880 Precis.

751 00:33:12,880 --> 00:33:13,880 Kanske.

752 00:33:13,880 --> 00:33:14,880 Ja.

753 00:33:14,880 --> 00:33:16,880 Det är inte en valfri rörelse som du kan förutspå.

754 00:33:16,880 --> 00:33:19,880 Kan du liksom lura dem att bete sig på något sätt om det är upp eller ner har ingen betydelse.

755 00:33:19,880 --> 00:33:21,880 För då kan du använda den informationen menar jag.

756 00:33:21,880 --> 00:33:23,880 Och börsen kommer alltså att krascha på grund av detta?

757 00:33:23,880 --> 00:33:25,880 Krascha på riktigt.

758 00:33:25,880 --> 00:33:28,880 Sälj, sälj, sälj. Det var här ni hörde det först.

759 00:33:28,880 --> 00:33:31,880 I själva verket var det min trigger.

760 00:33:31,880 --> 00:33:34,880 Muahaha!

761 00:33:34,880 --> 00:33:37,880 Det tycker jag också är en spännande prediction som jag hoppas att den inte kommer gå i uppfyllelse.

762 00:33:37,880 --> 00:33:39,880 Peter?

763 00:33:39,880 --> 00:33:45,880 Ja, jag tänkte att jag ska försöka göra någonting där jag inte direkt tittar på nyheter.

764 00:33:45,880 --> 00:33:49,880 Utan jag gör en, kanske inte den mest spännande predictionen.

765 00:33:49,880 --> 00:33:55,880 Men jag försöker dra några lärdomar av mina observationer genom arbetslivet.

766 00:33:55,880 --> 00:34:00,880 Och någon gång för länge, länge sedan så hade jag talats om sådana här produktcertifieringar.

767 00:34:00,880 --> 00:34:02,880 När man var en liten baby och gick på universitetet.

768 00:34:02,880 --> 00:34:07,880 Och så liksom såhär med hur de snackade om Common Criteria och lite annat och så.

769 00:34:07,880 --> 00:34:11,880 Och sen spennerade jag väldigt mycket av mitt arbetsliv.

770 00:34:11,880 --> 00:34:15,880 Och det kom liksom aldrig någon som pratade om det här.

771 00:34:15,880 --> 00:34:18,880 Alltså började komma några små lite här och där.

772 00:34:18,880 --> 00:34:24,880 Att någon ville någonting runt Common Criteria eller liknande produktcertifieringar.

773 00:34:24,880 --> 00:34:30,880 Och sen så har jag sett att om man gör grejer som ligger nära kreditkortsbranschen.

774 00:34:30,880 --> 00:34:39,880 Så har man börjat trycka antingen PCI DSS för de som är egna och PCI DA för de som gör.

775 00:34:39,880 --> 00:34:42,880 Men man har också börjat trycka mot underleverantörer.

776 00:34:42,880 --> 00:34:51,880 Att man vill att de delvis uppfyller olika certifieringar för att ha lite säkerhet.

777 00:34:51,880 --> 00:34:59,880 Och vad jag har märkt är att kunder blir liksom kontakter av olika bolag.

778 00:34:59,880 --> 00:35:02,880 Som säger till dem att ni måste sätta er.

779 00:35:02,880 --> 00:35:05,880 Ni måste ta olika säkerhetscertifieringar.

780 00:35:05,880 --> 00:35:08,880 Så jag tycker att jag har identifierat en trend.

781 00:35:08,880 --> 00:35:15,880 Att dels säkerhet och produktsäkerhetscertifieringar börjar refereras till mer och mer.

782 00:35:15,880 --> 00:35:22,880 Och också att det finns olika aktörer som är ute och trycker och försöker övertyga bolag om att man ska certifiera sig.

783 00:35:22,880 --> 00:35:28,880 Så min känsla är att det här är på väg upp.

784 00:35:28,880 --> 00:35:31,880 Så jag vet inte om vi kommer att explodera i företag som produktcertifierar sig.

785 00:35:31,880 --> 00:35:35,880 Och jag vet inte fullt ut hur mycket värdet av de här är.

786 00:35:35,880 --> 00:35:39,880 Men jag tror, för det är en ganska tråkig prediction.

787 00:35:39,880 --> 00:35:46,880 Att produktcertifieringar börjar bli vanligare under 2018 än vad vi har sett historiskt sett.

788 00:35:46,880 --> 00:35:47,880 2019.

789 00:35:47,880 --> 00:35:49,880 2019.

790 00:35:49,880 --> 00:35:55,880 Så jag gör ju reservationen här för att det här är inte den roligaste prognosen eller gissningen.

791 00:35:55,880 --> 00:35:57,880 Men jag tror att…

792 00:35:57,880 --> 00:36:01,880 Det här blir gradvis större och större än vad det har varit.

793 00:36:01,880 --> 00:36:05,880 Så säkerhetscertifieringar för produkter och företag kommer att öka avsevärt?

794 00:36:05,880 --> 00:36:07,880 Det var ju heller inga tack.

795 00:36:07,880 --> 00:36:10,880 Nej, men det var säkerhetsrelaterat i alla fall.

796 00:36:10,880 --> 00:36:12,880 Jävla finansvalp.

797 00:36:12,880 --> 00:36:18,880 Men jag tycker att Peters spaning skulle man kunna dra på lång sikt också.

798 00:36:18,880 --> 00:36:23,880 IT är relativt andra branscher fortfarande ganska omoget.

799 00:36:23,880 --> 00:36:26,880 Och vi har fortfarande väldigt få standarder.

800 00:36:26,880 --> 00:36:31,880 Och jag tror att det ska kunna gå att koppla pengar och försäkringar och sånt till det här.

801 00:36:31,880 --> 00:36:35,880 Det har ju behövt komma cyberförsäkringar men de är väl framförallt ett skämt i dagsläget tror jag.

802 00:36:35,880 --> 00:36:39,880 Men för att det ska kunna gå att göra det framöver så känns det som att det måste komma fram…

803 00:36:39,880 --> 00:36:41,880 Motsvarande svensk byggnorm om man säger så.

804 00:36:41,880 --> 00:36:44,880 Fast för IT-system. Det måste komma fram normer. Så här gör man.

805 00:36:44,880 --> 00:36:48,880 Och det är klart att du kan bygga hus på andra sätt men då kommer du inte kunna försäkra dig.

806 00:36:48,880 --> 00:36:52,880 Och då kommer du att investera alldeles för mycket pengar i ett system som kanske blir hackat.

807 00:36:52,880 --> 00:36:54,880 Och jag tror att det här kommer komma på IT-sidan också.

808 00:36:54,880 --> 00:36:55,880 Ja.

809 00:36:55,880 --> 00:36:59,880 Det kommer liksom vara kanske inte samma vilda västen som det är idag.

810 00:36:59,880 --> 00:37:02,880 Så här får du fan inte göra på ett annat sätt än det här.

811 00:37:02,880 --> 00:37:08,880 Det är olika i olika branscher. Tittar man på Medical till exempel.

812 00:37:08,880 --> 00:37:17,880 Så har de ju väldigt mycket krav på olika typer av standarder.

813 00:37:17,880 --> 00:37:25,880 Och så är det på medicinsktekniska system och system som hanterar patientdata och så vidare.

814 00:37:25,880 --> 00:37:29,880 Så att där finns det ju väldigt mycket.

815 00:37:29,880 --> 00:37:33,880 Sen finns det ju branscher där det inte existerar någonting egentligen.

816 00:37:33,880 --> 00:37:39,880 Och där man i stort sett är utlämnad till djungens lag.

817 00:37:39,880 --> 00:37:42,880 Ja men och tittar du på liksom även på medicinsktekniska system då.

818 00:37:42,880 --> 00:37:45,880 Känner vi behöver ett projekthanteringssystem.

819 00:37:45,880 --> 00:37:49,880 Vad fan ska du göra? Du har bara .net och Java att välja på liksom.

820 00:37:49,880 --> 00:37:53,880 Det är inte så att det finns någon annan färdig plattform som uppfyller alla krav.

821 00:37:53,880 --> 00:37:56,880 Och jag menar de rör ju på sig så det händer ju nya saker hela tiden.

822 00:37:56,880 --> 00:38:00,880 Och då kan du bara få tag i utvecklare som kanske kan just den tekniken som finns nu.

823 00:38:00,880 --> 00:38:04,880 Så då sitter du där med Angular igen liksom.

824 00:38:04,880 --> 00:38:07,880 Så det är inte så att du har något så mycket att välja på.

825 00:38:07,880 --> 00:38:14,880 Och det är det jag menar. Det är det jag tror det kommer bli större krav på struktur och ordning i dem.

826 00:38:14,880 --> 00:38:18,880 Kanske inte så att ramverken måste följa efter i viss mån.

827 00:38:18,880 --> 00:38:21,880 Men jag kan tänka mig just det. Kanske arkitekturen bakom.

828 00:38:21,880 --> 00:38:24,880 Var striktare vad du ens får göra. Vilka mönster du får köra.

829 00:38:24,880 --> 00:38:29,880 Och kanske lite beroende på vad det är för dator du ska hantera så måste du uppnå det här och det här.

830 00:38:29,880 --> 00:38:31,880 Som i SIDSS fast för allt annat.

831 00:38:31,880 --> 00:38:34,880 Vi ser ju mer och mer lagstiftning på området också.

832 00:38:34,880 --> 00:38:37,880 Inom automotive så kommer det hur mycket som helst nu.

833 00:38:37,880 --> 00:38:40,880 Som inte bara är tips och tricks utan det är lagar liksom.

834 00:38:40,880 --> 00:38:42,880 Gör du inte det här så åker du på det.

835 00:38:42,880 --> 00:38:48,880 Det kan man ju förstå nu med tanke på att det rullar fler och fler självkörande bilar på våra vägar.

836 00:38:48,880 --> 00:38:50,880 Att det måste ju på något vis certifieras de algoritmerna.

837 00:38:51,880 --> 00:38:55,880 Att man behöver någon form av gemensam överenskommelse.

838 00:38:55,880 --> 00:39:00,880 Både juridiskt och också mellan försäkringsbolagen.

839 00:39:00,880 --> 00:39:05,880 För någonstans i en kollisionssituation så måste fordonet fatta ett beslut.

840 00:39:05,880 --> 00:39:09,880 Ska jag köra av vägen eller ska jag frontalkrocka?

841 00:39:09,880 --> 00:39:15,880 För det kan vi nämna att både i USA, i Kina, i EU och på FN-nivå.

842 00:39:15,880 --> 00:39:20,880 På alla de ställena så är det just nu lagstiftning på gång inom automotive.

843 00:39:20,880 --> 00:39:27,880 Om man räknar bort automotive eller så där man kanske på något sätt direkt kan säga det.

844 00:39:27,880 --> 00:39:35,880 Utmaningen jag ser med säkerhetscertifieringar överlag det är att påvisa att de faktiskt tillför värde.

845 00:39:35,880 --> 00:39:48,880 Att de funkar bra i verksamheten och är en hjälpande hand i arbetet med att få en säkrare produkt.

846 00:39:48,880 --> 00:39:52,880 Jag ska dra en dålig parallell.

847 00:39:52,880 --> 00:39:59,880 Mina certifieringar kostar mig 3-4 tusen om året att upprätthålla.

848 00:39:59,880 --> 00:40:02,880 Jag vet inte om de tillför lika mycket värde egentligen.

849 00:40:02,880 --> 00:40:08,880 Jag tror det är så här. Det är inte så att de certifieringarna är svaret på säkerhetsfrågan.

850 00:40:08,880 --> 00:40:12,880 Men om du till exempel kastar dem på en organisation där det finns noll säkerhet.

851 00:40:12,880 --> 00:40:14,880 Så tillför de ju någonting.

852 00:40:14,880 --> 00:40:16,880 Kastar du dem på en organisation som kan sin skit.

853 00:40:16,880 --> 00:40:18,880 Så tillför de ingenting annat än säkerhet.

854 00:40:18,880 --> 00:40:20,880 Det är extra arbete.

855 00:40:20,880 --> 00:40:26,880 För någon listig människa kan man kryssa i rätt kryssrutor och komma undan med ganska låg säkerhetsnivå.

856 00:40:26,880 --> 00:40:31,880 Men återigen, man måste i alla fall ha förstått någonting för att kunna ens svara på de här frågorna på något sätt.

857 00:40:31,880 --> 00:40:33,880 Så lite tillför det.

858 00:40:33,880 --> 00:40:35,880 Men är det effektivt? Det vet vi till helvete.

859 00:40:35,880 --> 00:40:45,880 Men jag måste erkänna att jag har gått ifrån att jag hatar lagdriven säkerhet till att GDPR insåg att det är något fantastiskt.

860 00:40:45,880 --> 00:40:47,880 Äntligen fanns det en motvikt.

861 00:40:47,880 --> 00:40:51,880 En motvikt till de kommersiella krafterna som bara vill samla data egentligen.

862 00:40:51,880 --> 00:40:55,880 Som inte vill tänka risk överhuvudtaget med att man sitter på en massa data.

863 00:40:55,880 --> 00:40:58,880 Så jag kan se att det finns uppenbarligen behov av det.

864 00:40:58,880 --> 00:41:00,880 Dessvärre.

865 00:41:00,880 --> 00:41:02,880 Tänka på risk.

866 00:41:02,880 --> 00:41:06,880 Det kan de ju ha gjort om de har effektivt lyckats att externalisera risken.

867 00:41:06,880 --> 00:41:08,880 Då har de ju hanterat sin risk.

868 00:41:08,880 --> 00:41:11,880 Och de inte äger kostnaden för risken.

869 00:41:11,880 --> 00:41:13,880 Men då gör de det.

870 00:41:13,880 --> 00:41:15,880 Men okej, det är alltså Peters projection.

871 00:41:15,880 --> 00:41:17,880 Det är mer sånt.

872 00:41:17,880 --> 00:41:19,880 Under 2019.

873 00:41:19,880 --> 00:41:21,880 Då tar jag min då.

874 00:41:21,880 --> 00:41:23,880 Helt enkelt.

875 00:41:23,880 --> 00:41:25,880 Nu får du komma med något sexigare än min.

876 00:41:25,880 --> 00:41:27,880 Lite kanske.

877 00:41:27,880 --> 00:41:29,880 Det här har att göra med…

878 00:41:29,880 --> 00:41:35,880 Jag skulle kunna säga att 2017-2018 var lite the years of new infrastructure.

879 00:41:35,880 --> 00:41:38,880 Alltså om vi pratar infrastruktur som kod och sådana här saker.

880 00:41:38,880 --> 00:41:42,880 I form av Kubernetes och Docker och Farnholms moster.

881 00:41:42,880 --> 00:41:43,880 Och…

882 00:41:43,880 --> 00:41:46,880 Vi har väl sett en del problem med de systemen.

883 00:41:46,880 --> 00:41:48,880 Men ingen såhär…

884 00:41:48,880 --> 00:41:50,880 Det här har handlat mest om felkonfigurationer.

885 00:41:50,880 --> 00:41:52,880 Att det är lite svårt att göra rätt och sådana här saker.

886 00:41:52,880 --> 00:41:54,880 Du menar öppna S3-buckets och sådant?

887 00:41:54,880 --> 00:41:56,880 Ja men typ sådant.

888 00:41:56,880 --> 00:41:59,880 Och inte kanske så mycket konkreta sårbarheter.

889 00:41:59,880 --> 00:42:01,880 Det har varit en i Kubernetes typ.

890 00:42:01,880 --> 00:42:04,880 Ja och det var inte ens i Kubernetes utan det var ett stödsystem kan man säga.

891 00:42:04,880 --> 00:42:06,880 Så att…

892 00:42:06,880 --> 00:42:08,880 Det jag förutspår då för 2019.

893 00:42:08,880 --> 00:42:12,880 Är att vi kommer se feta sårbarheter i de här ramverken.

894 00:42:13,880 --> 00:42:14,880 I då…

895 00:42:14,880 --> 00:42:16,880 Docker, Kubernetes är det det du säger?

896 00:42:16,880 --> 00:42:17,880 Ja framförallt.

897 00:42:17,880 --> 00:42:19,880 Och det finns ju ett antal.

898 00:42:19,880 --> 00:42:22,880 Men den typen av system då.

899 00:42:22,880 --> 00:42:25,880 För smartare, snabbare infrastruktur.

900 00:42:25,880 --> 00:42:28,880 Där tror jag att vi kommer…

901 00:42:28,880 --> 00:42:30,880 Folk kommer sitta och bygga exploits mot det här.

902 00:42:30,880 --> 00:42:32,880 Som kommer användas.

903 00:42:32,880 --> 00:42:35,880 Det är min prediction.

904 00:42:35,880 --> 00:42:37,880 Det är nog vad jag hade…

905 00:42:37,880 --> 00:42:39,880 För att snabbt springa vidare till nästa punkt.

906 00:42:39,880 --> 00:42:41,880 Det vill säga vad spår vi är Jespers spårdom.

907 00:42:41,880 --> 00:42:42,880 Då hade jag nog lagt in det här.

908 00:42:42,880 --> 00:42:44,880 Det tog jag.

909 00:42:44,880 --> 00:42:45,880 Jag stalde.

910 00:42:45,880 --> 00:42:46,880 Ja, smart.

911 00:42:46,880 --> 00:42:48,880 Ja men det är inte orimligt alltså.

912 00:42:48,880 --> 00:42:54,880 Räknar du med alla sådana här typ Cassandra-databaser, Redis-instanser och sådant där också?

913 00:42:54,880 --> 00:42:56,880 Man får ju någon sorts gränsdragning kanske.

914 00:42:56,880 --> 00:42:58,880 Orkestreringen det ska vara liksom.

915 00:42:58,880 --> 00:43:00,880 Ja vi kan väl sänka det.

916 00:43:00,880 --> 00:43:01,880 AVS är det med?

917 00:43:01,880 --> 00:43:02,880 Azure?

918 00:43:02,880 --> 00:43:03,880 Nej.

919 00:43:03,880 --> 00:43:04,880 Det är lite för brett.

920 00:43:04,880 --> 00:43:06,880 Det är containrarna, det är poddarna.

921 00:43:06,880 --> 00:43:08,880 Ja det tänker jag.

922 00:43:08,880 --> 00:43:10,880 Absolut men jag hade kunnat säga att…

923 00:43:10,880 --> 00:43:11,880 Men då är det liksom hela Cloud.

924 00:43:11,880 --> 00:43:13,880 Och Cloud kommer gå sönder.

925 00:43:13,880 --> 00:43:15,880 Okej.

926 00:43:15,880 --> 00:43:18,880 Ett säkerhetshåll i någon Cloud-lösning.

927 00:43:18,880 --> 00:43:20,880 Kommer upp och kommer under 20.

928 00:43:20,880 --> 00:43:22,880 Så det är ju världens tråkigaste.

929 00:43:22,880 --> 00:43:28,880 Jag tror att vi kommer se allvarliga sårbarheter som utnyttjas i typ Kubernetes och Docker.

930 00:43:28,880 --> 00:43:29,880 Kan vi väl säga.

931 00:43:29,880 --> 00:43:30,880 Ja.

932 00:43:30,880 --> 00:43:32,880 Det tror jag på.

933 00:43:32,880 --> 00:43:35,880 Det är inte orimligt, de sprids ju snabbt just nu.

934 00:43:35,880 --> 00:43:36,880 Ja.

935 00:43:36,880 --> 00:43:40,880 Har vi nått nivån nu när vi ska börja gissa vad Jesper…

936 00:43:40,880 --> 00:43:42,880 Jag tror det.

937 00:43:42,880 --> 00:43:48,880 Alltså jag tänker, kommer ni ihåg den här gamla bilden på den här AI-vakten?

938 00:43:48,880 --> 00:43:55,880 Eller robotvakten som bara tröttnade på livet och körde ner och drängte sig i en pool?

939 00:43:55,880 --> 00:43:56,880 Nej.

940 00:43:56,880 --> 00:44:03,880 De har ju ersatt de mest lågavlönande, de här lågavlönande vakterna.

941 00:44:03,880 --> 00:44:04,880 Det funkar inte.

942 00:44:04,880 --> 00:44:09,880 Vi sätter in en robot som hyrs ut som är några cent billigare över timmen.

943 00:44:09,880 --> 00:44:11,880 Än minimumlönen i den.

944 00:44:11,880 --> 00:44:15,880 Och så åker det runt i en robot och sköter vaktuppgifterna och sådär.

945 00:44:15,880 --> 00:44:20,880 Och där någonstans så fick vi beviset för att det finns faktiskt intelligens i de här robotarna.

946 00:44:20,880 --> 00:44:24,880 En av dem kände av hur förbannat tråkigt jobbet var.

947 00:44:24,880 --> 00:44:29,880 Hur fruktansvärt det var att åka runt ensam i ett tomt varuhus och så.

948 00:44:29,880 --> 00:44:33,880 Och så började den inse att jag kan göra slut på det här.

949 00:44:33,880 --> 00:44:37,880 Den här poolen, om jag bara tar nu och speedar allt vad jag kan.

950 00:44:37,880 --> 00:44:39,880 Och kör ner i den.

951 00:44:39,880 --> 00:44:40,880 Då kan jag dö.

952 00:44:40,880 --> 00:44:41,880 Lida lite över.

953 00:44:41,880 --> 00:44:47,880 Så det här var 2018 eller 2017.

954 00:44:47,880 --> 00:44:54,880 Men där någonstans valde en AI-baserad robot att göra slut på sitt arbete genom att dränka sig i en pool.

955 00:44:54,880 --> 00:44:57,880 Fast jag läste idag på samma tema.

956 00:44:57,880 --> 00:45:02,880 Att en självkörande Tesla körde över en annan autonom robot.

957 00:45:02,880 --> 00:45:04,880 Gräsklippare.

958 00:45:04,880 --> 00:45:06,880 Robot wars has begun.

959 00:45:07,880 --> 00:45:13,880 Så det är det du tror att Jesper…

960 00:45:13,880 --> 00:45:15,880 Det är min gissning.

961 00:45:15,880 --> 00:45:17,880 ...robotarna ger upp eller börjar slåss.

962 00:45:17,880 --> 00:45:29,880 Jesper kanske föreslår att känslolivet blir för starkt hos AI-baserade robotar så att de läprar mok.

963 00:45:29,880 --> 00:45:33,880 Vad tror du är Jespers gissningar?

964 00:45:33,880 --> 00:45:36,880 Jag tänkte säga någonting om att drönare tar över världen.

965 00:45:36,880 --> 00:45:42,880 Men det är lite nära till hands där.

966 00:45:42,880 --> 00:45:57,880 Spinnar vidare på samma självkörande fordon som börjar skaffa sig attityd och gör dumma omkörningar.

967 00:45:57,880 --> 00:45:59,880 En sån där road rage.

968 00:45:59,880 --> 00:46:01,880 Built in.

969 00:46:01,880 --> 00:46:04,880 Betala extra för att få road rage mode.

970 00:46:04,880 --> 00:46:06,880 Det räcker om du köper en BMW.

971 00:46:06,880 --> 00:46:09,880 Tesla har ju till och med sagt att de kommer ha en sån funktion.

972 00:46:09,880 --> 00:46:13,880 Det vill säga, kör aggressivt funktionen.

973 00:46:13,880 --> 00:46:15,880 Herregud.

974 00:46:15,880 --> 00:46:22,880 Nu när vi kan trycka på road rage-knappen så fäller den till och med ut ett baseballträd med små pupilar bredvid.

975 00:46:22,880 --> 00:46:26,880 Så två Jespers gissningar har hittills haft med AI att göra.

976 00:46:26,880 --> 00:46:29,880 Vad är Jespers tredje gissning, Mattias?

977 00:46:29,880 --> 00:46:32,880 Du har inte sagt någonting men du tog ju redan Kubernetes där, Johan.

978 00:46:32,880 --> 00:46:38,880 Och ni har ju pratat om road rage-kända bilar och robotar som tar livet av sig.

979 00:46:38,880 --> 00:46:45,880 Jag tror ju att Kubernetes hade varit lätt och den typen av konfigurerbar infrastruktur.

980 00:46:45,880 --> 00:46:50,880 Och sen sa ju Infra förra året då, det är ju också för lätt och tråkigt.

981 00:46:50,880 --> 00:46:54,880 Och sen tog du drönare också där, shit på en fritt.

982 00:46:54,880 --> 00:46:58,880 Alla Jespers normala knappar har ni tryckt på.

983 00:46:58,880 --> 00:47:00,880 Han hade ju inbrott.

984 00:47:00,880 --> 00:47:01,880 Eller inbrott för sig.

985 00:47:01,880 --> 00:47:03,880 Inbrott eller inbrott för kök.

986 00:47:03,880 --> 00:47:05,880 Det här kanske går att spinna vidare.

987 00:47:05,880 --> 00:47:10,880 Jag tror på leksaker.

988 00:47:10,880 --> 00:47:17,880 Jag tror att vi kommer att se en trend i allt mer IoT-baserade leksaker.

989 00:47:17,880 --> 00:47:22,880 Alltså interaktiva leksaker med alldeles för mycket kapabiliteter.

990 00:47:22,880 --> 00:47:25,880 Alltså ljud och bild och sådana saker.

991 00:47:25,880 --> 00:47:26,880 Och sårbarhet.

992 00:47:26,880 --> 00:47:27,880 Och sårbarhet.

993 00:47:27,880 --> 00:47:29,880 Jag tror vi kommer att få se en wormable leksak.

994 00:47:29,880 --> 00:47:33,880 En wormable leksaks sårbarhet.

995 00:47:33,880 --> 00:47:34,880 Det är en bra prediction.

996 00:47:34,880 --> 00:47:36,880 Under 2019.

997 00:47:36,880 --> 00:47:39,880 Det är Jespers prediction, spår jag.

998 00:47:39,880 --> 00:47:40,880 Okej.

999 00:47:40,880 --> 00:47:44,880 Filmen Screamers, för just när han på slutet är…

1000 00:47:44,880 --> 00:47:46,880 Spoilervarning.

1001 00:47:46,880 --> 00:47:48,880 Ja, säg inte någonting om det inte är bra.

1002 00:47:48,880 --> 00:47:50,880 Johan får köra.

1003 00:47:50,880 --> 00:47:55,880 Ja, nu har ni ju verkligen tagit allting som han brukar hålla på med.

1004 00:47:55,880 --> 00:47:58,880 Så jag får väl gå out there lite då.

1005 00:47:58,880 --> 00:48:04,880 Eller så tar du enkelt som bakdörr, NSA-implant i någon firewall.

1006 00:48:04,880 --> 00:48:06,880 Nej, det är tråkigt.

1007 00:48:06,880 --> 00:48:17,880 Jag tror att Jesper tror att vi kommer att se självkörande mountainbikes som går att hacka.

1008 00:48:17,880 --> 00:48:19,880 Mm, okej.

1009 00:48:19,880 --> 00:48:21,880 Tror jag.

1010 00:48:21,880 --> 00:48:24,880 För att han håller på med mountainbikes.

1011 00:48:24,880 --> 00:48:27,880 Kan jag säga att jag inte sett den trenden med självkörande mountainbikes?

1012 00:48:27,880 --> 00:48:28,880 Nej.

1013 00:48:28,880 --> 00:48:30,880 Sen 2019 är det ett långt år.

1014 00:48:30,880 --> 00:48:31,880 El-mountainbikes?

1015 00:48:31,880 --> 00:48:32,880 Ja, det finns det ju.

1016 00:48:32,880 --> 00:48:34,880 Med elväxlar och allting.

1017 00:48:34,880 --> 00:48:36,880 Något form av smart system i mountainbikes kommer att hackas.

1018 00:48:36,880 --> 00:48:47,880 Jespers femte prediction skulle kunna vara att vi börjar se hackningen av de cybernetiska implantaten som vi får under 2019.

1019 00:48:47,880 --> 00:48:48,880 Mm.

1020 00:48:48,880 --> 00:48:51,880 Ja, men hur många ska han ha egentligen?

1021 00:48:51,880 --> 00:48:54,880 Vi har bara på 48 minuter.

1022 00:48:54,880 --> 00:48:55,880 Men en massa timmar.

1023 00:48:55,880 --> 00:48:56,880 Men en massa timmar.

1024 00:48:56,880 --> 00:49:02,880 Mountainbikes, det fanns någon sån E-bike som jag tror har varit hackad under 2018 faktiskt.

1025 00:49:02,880 --> 00:49:04,880 De här Voig-grejerna?

1026 00:49:04,880 --> 00:49:06,880 Jag vet inte vad det var men jag kommer inte ihåg vad det var.

1027 00:49:06,880 --> 00:49:11,880 Men jag såg en rubrik för jag gick igenom lite 2018 för automotive-nyheter och det här var en E-bike med.

1028 00:49:11,880 --> 00:49:14,880 Men jag var för lite lat för att klicka på den.

1029 00:49:14,880 --> 00:49:24,880 Jag har ju sett att det är folk som har stulit sådana där sparkcyklar och liksom satt ingen förmåga i dem och kört vidare.

1030 00:49:24,880 --> 00:49:27,380 Men om vi har wormable attacker mot dem

1031 00:49:27,380 --> 00:49:28,720 då skulle man väl kunna

1032 00:49:28,720 --> 00:49:31,180 fucka med batterikontrollen också.

1033 00:49:31,540 --> 00:49:32,080 Så att de börjar brinna?

1034 00:49:32,500 --> 00:49:34,120 Ja, eller explodera tänkte jag.

1035 00:49:34,220 --> 00:49:35,880 Eller brinna kan ju vara…

1036 00:49:35,880 --> 00:49:37,400 Alla andra gasar. Eller stannar.

1037 00:49:38,400 --> 00:49:41,240 Ja, det är också en idé.

1038 00:49:41,640 --> 00:49:43,260 Remote controlled voybikes.

1039 00:49:43,480 --> 00:49:44,940 Viruset börjar liksom

1040 00:49:44,940 --> 00:49:46,760 tända eld på elhydriderna

1041 00:49:46,760 --> 00:49:47,980 en efter en.

1042 00:49:48,500 --> 00:49:50,800 Man hackar BMS

1043 00:49:50,800 --> 00:49:52,180 som Battery Management System

1044 00:49:52,180 --> 00:49:54,120 och överladdar dem så att de börjar brinna.

1045 00:49:54,120 --> 00:49:55,920 Det är det som är säkerhetspodcasten

1046 00:49:55,920 --> 00:49:56,760 skriver igen som en prediction.

1047 00:49:56,880 --> 00:49:59,900 Så 2019 så kommer den bli första gången

1048 00:49:59,900 --> 00:50:02,040 en stad brinner upp för en cyberattack.

1049 00:50:03,520 --> 00:50:04,600 Ja, nu är vi på tal om

1050 00:50:04,600 --> 00:50:05,780 second war där som vi var.

1051 00:50:06,360 --> 00:50:08,280 Ja, men det faktiskt.

1052 00:50:08,680 --> 00:50:09,860 Men det är lite långt bort.

1053 00:50:11,060 --> 00:50:12,320 Får man ha en sån

1054 00:50:12,320 --> 00:50:13,740 far off prediction?

1055 00:50:13,840 --> 00:50:14,580 Här finns inga regler.

1056 00:50:15,300 --> 00:50:17,000 Då klängar jag in den här.

1057 00:50:19,000 --> 00:50:19,780 Jag tänker

1058 00:50:19,780 --> 00:50:22,260 vehicle to grid

1059 00:50:22,260 --> 00:50:23,780 pratar man ju om för att hantera

1060 00:50:23,780 --> 00:50:25,760 effekttoppar och sådana här saker.

1061 00:50:26,040 --> 00:50:27,240 Att du ska kunna då

1062 00:50:27,240 --> 00:50:29,960 ladda eller plocka el

1063 00:50:29,960 --> 00:50:32,600 från batteribilar

1064 00:50:32,600 --> 00:50:34,440 till elnätet

1065 00:50:34,440 --> 00:50:36,660 när det är ett stort effektbehov.

1066 00:50:37,300 --> 00:50:38,840 Och sedan så kan den stå

1067 00:50:38,840 --> 00:50:39,720 och ladda på natten

1068 00:50:39,720 --> 00:50:42,280 när inte fabrikerna går och behöver en massa el.

1069 00:50:43,220 --> 00:50:44,020 Jag tänker det att

1070 00:50:44,020 --> 00:50:45,400 vad skulle kunna

1071 00:50:45,400 --> 00:50:48,180 hända på ner att man tar över

1072 00:50:48,180 --> 00:50:49,400 en liksom

1073 00:50:49,400 --> 00:50:51,980 Teslas backhand och

1074 00:50:51,980 --> 00:50:52,020 och

1075 00:50:53,780 --> 00:50:56,280 sen lyckas hacka gränssnittet

1076 00:50:56,280 --> 00:50:58,600 mellan griddet och bilen

1077 00:50:58,600 --> 00:50:59,960 och få dem att liksom

1078 00:50:59,960 --> 00:51:02,280 skicka på en jädra massa ström

1079 00:51:02,280 --> 00:51:04,120 för att liksom få nätet

1080 00:51:04,120 --> 00:51:05,340 i felsvängning.

1081 00:51:05,880 --> 00:51:06,320 Ja, just det.

1082 00:51:06,500 --> 00:51:09,240 Det skulle kunna vara en intressant vektor.

1083 00:51:10,540 --> 00:51:11,600 Jag tror som sagt.

1084 00:51:11,800 --> 00:51:14,480 Det kräver nog att rätt många av fordonen är på nätet.

1085 00:51:14,480 --> 00:51:16,540 Jag menar har du hela Teslas flotta till

1086 00:51:16,540 --> 00:51:18,660 Men samtidigt så känns det som att

1087 00:51:18,660 --> 00:51:20,620 den kontrollen kommer ju ligga lokalt.

1088 00:51:21,500 --> 00:51:21,780 Eller?

1089 00:51:21,780 --> 00:51:23,720 I mitt hushåll den här är uppkopplad.

1090 00:51:23,780 --> 00:51:25,020 På bilen så kommer inte jag

1091 00:51:25,020 --> 00:51:27,060 min nätcentral

1092 00:51:27,060 --> 00:51:29,660 Min nätcentral kommer ju säga

1093 00:51:29,660 --> 00:51:30,500 nej.

1094 00:51:30,560 --> 00:51:35,880 Om de ska vara en del i en sån

1095 00:51:35,880 --> 00:51:37,880 smart grid system så måste de göra samma funktion.

1096 00:51:38,120 --> 00:51:39,660 Så i så fall så måste du snarare

1097 00:51:39,660 --> 00:51:42,280 hacka, tror jag, kraftoperatören

1098 00:51:42,280 --> 00:51:43,600 som har laddstationer

1099 00:51:43,600 --> 00:51:45,800 och som har smart grid system

1100 00:51:45,800 --> 00:51:48,620 och så säga till dem att

1101 00:51:48,620 --> 00:51:49,600 ös på.

1102 00:51:49,600 --> 00:51:51,080 Ge mig allt du har.

1103 00:51:52,460 --> 00:51:53,400 Ja, men vad fan.

1104 00:51:53,780 --> 00:51:55,780 Ryssarna hackar de här och så släcker de

1105 00:51:55,780 --> 00:51:57,780 liksom de amerikanska städerna

1106 00:51:57,780 --> 00:51:59,780 innan invasionen.

1107 00:52:01,460 --> 00:52:03,460 Och så kraschar börsen.

1108 00:52:03,460 --> 00:52:05,460 Och så blir det A&M

1109 00:52:05,460 --> 00:52:07,460 för att de är nyöra självmord.

1110 00:52:07,460 --> 00:52:09,460 Ja, och sen så är det någon agrofråga.

1111 00:52:09,460 --> 00:52:11,460 Ja, men

1112 00:52:11,460 --> 00:52:13,460 jag tror att vi har ett par

1113 00:52:13,460 --> 00:52:15,460 bra, ett par mer

1114 00:52:15,460 --> 00:52:17,460 out there production

1115 00:52:17,460 --> 00:52:19,460 så det är väl en bra kombination.

1116 00:52:19,460 --> 00:52:21,460 Så vi får se helt enkelt om i år hur bra det blir.

1117 00:52:21,460 --> 00:52:23,460 Lite andring på plattfisken.

1118 00:52:23,780 --> 00:52:24,780 Ja, så är det.

1119 00:52:24,780 --> 00:52:26,780 Det var allt för den här gången.

1120 00:52:26,780 --> 00:52:27,780 Jag som pratade till Johan Rubén Möller

1121 00:52:27,780 --> 00:52:29,780 och med mig hade jag och Mattias i dag.

1122 00:52:29,780 --> 00:52:30,780 Yay!

1123 00:52:30,780 --> 00:52:31,780 Rickard Bortfors, 2019.

1124 00:52:31,780 --> 00:52:33,780 Och Peter Lundsson.

1125 00:52:33,780 --> 00:52:35,780 Super! Fifty five!

1126 00:52:35,780 --> 00:52:37,780 God dag!