Säkerhetspodcasten #143 - Nyårsspaningar
Lyssna
Innehåll
I dagens avsnitt går panelen igenom spaningarna de gjorde för ett år sen, och levererar rykande färska förnimmelser om framtiden inför 2019!
Inspelat: 2019-01-09. Längd: 00:52:40.
Gamla 2018 Spaningar
09:10Peter: AI-säkerhetshål, AI blir ont!17:55Mattias: Stora Webbsårbarhetet, JavaScript, kritiska20:20Rickard: En stor databreach; Google, Facebook24:30Jesper: Stor attack mot Internet, BGP, DNS25:55Johan: All out Cyber-War
Nya 2019 Spaningar
28:00Mattias: Nordirlänsk cyberfront mot politiska britiska mål31:10Rickard: AI krashar börsen utifrån manipulation33:39Peter: Produktcertifieringar inom säkerhet41:25Johan: Feta sårbarheter i Docker, Kubernetes, IaC utnyttjas43:40Jesper: (jesper frånvarande, podden ljuger ihop spaningar)
Spaningsscore
| År | Vem | Poäng | Spaning |
|---|---|---|---|
| 2018 | Panelen | 0.7 | |
| 2019 | Johan | ??? | Feta sårbarheter i Docker, Kubernetes, IaC utnyttjas |
| 2018 | Johan | 0.0 | All out Cyber-War |
| 2019 | Peter | ??? | Produktcertifieringar inom säkerhet |
| 2018 | Peter | 0.2 | AI-säkerhetshål, AI blir ont! |
| 2019 | Jesper | ??? | (Panelen slängde ihop någon spaning för jesper) |
| 2018 | Jesper | 0.0 | Stor attack mot Internet, BGP, DNS |
| 2019 | Rickard | ??? | AI krashar börsen utifrån manipulation |
| 2018 | Rickard | 0.5 | En stor databreach; Google, Facebook |
| 2019 | Mattias | ??? | Nordirlänsk cyberfront mot politiska britiska mål |
| 2018 | Mattias | 0.0 | Stora Webbsårbarhetet, JavaScript, kritiska |
AI transkribering
AI försöker förstå oss… Ha överseende med galna feltranskriberingar.
1 00:00:00,000 --> 00:00:02,280
Vandret rullar
2 00:00:30,000 --> 00:00:31,740
Det är just det som var det.
3 00:00:33,020 --> 00:00:35,060
Det är Linux-date.
4 00:00:35,820 --> 00:00:37,240
Det är Epoch-en till slut.
5 00:00:37,240 --> 00:00:38,520
Epoch-en till slut.
6 00:00:39,500 --> 00:00:43,040
Är det bara Linux som åker på det?
7 00:00:43,260 --> 00:00:44,280
Det är inga andra system som…
8 00:00:44,280 --> 00:00:45,660
Allt kommer att falla.
9 00:00:45,920 --> 00:00:47,660
Allt som använder Epoch-en.
10 00:00:48,620 --> 00:00:52,820
Systemen kommer att dö, flygen kommer att falla, satelliterna kommer att rasa.
11 00:00:52,960 --> 00:00:53,780
Det är Peters prediction.
12 00:00:56,580 --> 00:00:59,080
Man går i så andra system.
13 00:00:59,320 --> 00:00:59,900
Typ 30.
14 00:01:00,000 --> 00:01:07,480
Alla som fortfarande är kvar på 32-bit signed integer-representation av tiden.
15 00:01:08,400 --> 00:01:10,480
För de hamnar på negativ tid.
16 00:01:10,560 --> 00:01:12,900
Och negativ tid är odefinierat felfall.
17 00:01:13,060 --> 00:01:15,000
Och då dör maskinerna.
18 00:01:15,660 --> 00:01:16,860
Processen börjar brinna.
19 00:01:17,380 --> 00:01:21,220
Men när gick de över till 64-bitars tid?
20 00:01:21,420 --> 00:01:21,800
Förrgår.
21 00:01:23,520 --> 00:01:23,660
Va?
22 00:01:24,000 --> 00:01:24,600
Nej, jag vet inte.
23 00:01:24,680 --> 00:01:27,440
De som ligger kvar på 32-bitars integer.
24 00:01:27,440 --> 00:01:29,440
Ja, det är väl typiskt.
25 00:01:30,000 --> 00:01:38,400
32-bitars maskiner och program som av någon anledning fortfarande är gammaldags.
26 00:01:38,400 --> 00:01:45,860
Okej, så samtidigt som vi gick över på 64-bitars adressering så gick man över på 64-bitars Epoch-tid?
27 00:01:47,140 --> 00:01:49,900
Adresseringen har vi inte med saken att göra, men i princip ja.
28 00:01:50,080 --> 00:01:50,580
Okej, bra.
29 00:01:50,640 --> 00:01:58,380
Alltså när du bytte heltalen från 32-bit till 64-bit så blev tiden i de flesta implementationer 32-bit.
30 00:01:58,380 --> 00:01:59,980
Men det finns undantag.
31 00:02:00,000 --> 00:02:07,900
Vi är idag sponsrade av Ashore. Läs mer om dem på ashore.se och dessutom Bortfors Consulting som ni hittar på bortfors.se.
32 00:02:08,120 --> 00:02:10,280
Tyckte du att vi båda drog iväg där lite?
33 00:02:10,500 --> 00:02:11,940
Nej, det var intressant, men det var dags att gå vidare.
34 00:02:12,400 --> 00:02:21,980
Och Peter sponsrar tillfälligt med en Zyper 55-mic och en SCD med ett Dynamite för förstarkare.
35 00:02:21,980 --> 00:02:29,260
Ja, det är nämligen så att vi funderar på om vi ska uppgradera lite hur vi låter och hur vi jobbar här med nya mikrofoner och dylikt.
36 00:02:30,000 --> 00:02:32,000
Peter är den som sitter på den nya mikrofonen.
37 00:02:32,000 --> 00:02:40,240
Jag tänker att det är bara själva ljudkvaliteten vi kan förbättra. Vi kan inte förbättra innehållet i sig, det är tyvärr lika dåligt.
38 00:02:40,240 --> 00:02:42,240
Vi har försökt, men det går inte.
39 00:02:42,240 --> 00:02:45,240
Om man blir lite mer intelligent med en bättre mikrofon så är det faktiskt.
40 00:02:45,240 --> 00:02:47,240
Man låter mer upplyst.
41 00:02:47,240 --> 00:02:57,000
Men däremot så kan man ju säga att om ni gillar hur Peter låter så kan ni ju säga till, för då kanske vi löser någon form av crowdfunded uppgradering av vår hårdvara här.
42 00:02:57,000 --> 00:02:59,000
Och så får ni höra av er om ni vill att vi ska börja en avsnitt.
43 00:02:59,000 --> 00:02:59,120
Och så får ni höra av er om ni vill att vi ska börja en avsnitt.
44 00:02:59,120 --> 00:03:02,480
Och så får ni höra av er om ni vill att vi ska börja en ASMR-ljudcast här.
45 00:03:02,480 --> 00:03:03,560
Precis.
46 00:03:03,560 --> 00:03:05,560
ASM.
47 00:03:08,560 --> 00:03:10,560
Peter ljudporrar där borta.
48 00:03:10,560 --> 00:03:18,560
Vilket för övrigt är tydligen en felaktig förkortning. Det betyder ingenting. Det är bara någon som failade.
49 00:03:18,560 --> 00:03:20,560
Soft.
50 00:03:20,560 --> 00:03:27,560
Vi har lite snabba plugs och det är egentligen Securityfest som vanligt som snart går in i vår första CFP Review-runda.
51 00:03:27,560 --> 00:03:28,560
Så börja skicka in era CFPer.
52 00:03:28,560 --> 00:03:29,060
Så börja skicka in era CFPer.
53 00:03:29,060 --> 00:03:31,000
inte har gjort det redan. Finns såklart
54 00:03:31,000 --> 00:03:32,340
platser för sponsorer och så vidare.
55 00:03:33,040 --> 00:03:34,200
Maila oss eller gå in på
56 00:03:34,200 --> 00:03:36,140
securitfest.com för mer information.
57 00:03:37,440 --> 00:03:38,520
Några andra plugs?
58 00:03:41,180 --> 00:03:43,100
Nej, lite tidigt.
59 00:03:43,980 --> 00:03:44,820
Det är först i maj.
60 00:03:46,080 --> 00:03:46,780
Säg det, säg det.
61 00:03:47,920 --> 00:03:49,220
Det är två grejer
62 00:03:49,220 --> 00:03:50,900
egentligen då. Dels
63 00:03:50,900 --> 00:03:53,160
är det Skada Security
64 00:03:53,160 --> 00:03:54,480
i Stockholm
65 00:03:54,480 --> 00:03:56,300
som går av stapeln
66 00:03:56,300 --> 00:03:59,620
jag tror det är 56 maj.
67 00:04:00,140 --> 00:04:00,940
Början på maj
68 00:04:00,940 --> 00:04:02,160
är det i alla fall.
69 00:04:03,400 --> 00:04:04,480
Och där kommer
70 00:04:04,480 --> 00:04:06,780
det att dyka upp
71 00:04:06,780 --> 00:04:08,440
en massa bra folk och prata
72 00:04:08,440 --> 00:04:10,040
skadasäkerhet och annat.
73 00:04:11,160 --> 00:04:12,880
Sen så skulle jag vilja
74 00:04:12,880 --> 00:04:14,120
slå ett slag för
75 00:04:14,120 --> 00:04:16,480
Skada World
76 00:04:16,480 --> 00:04:18,940
Congress eller någonting sånt där
77 00:04:18,940 --> 00:04:19,780
i London
78 00:04:19,780 --> 00:04:22,840
som jag har blivit inbjuden att
79 00:04:22,840 --> 00:04:23,640
tala på också.
80 00:04:23,640 --> 00:04:25,400
Så vi får se
81 00:04:25,400 --> 00:04:26,640
vad det landar på.
82 00:04:26,840 --> 00:04:28,120
Men den är i juni.
83 00:04:29,080 --> 00:04:31,680
Så vi får se. Jag ska få bekräftat
84 00:04:31,680 --> 00:04:33,540
att jag har en talarplats
85 00:04:33,540 --> 00:04:35,100
innan jag pluggar om för mycket.
86 00:04:35,360 --> 00:04:36,360
Men det kommer säkert bli intressant.
87 00:04:36,500 --> 00:04:37,700
Mer info när det börjar närma sig.
88 00:04:38,780 --> 00:04:40,780
Så bra. Det är ju som sagt
89 00:04:40,780 --> 00:04:43,120
vårt årliga nyårsavsnitt.
90 00:04:43,500 --> 00:04:44,980
Och det vi har gjort de senaste åren
91 00:04:44,980 --> 00:04:47,100
är ju att gå igenom
92 00:04:47,100 --> 00:04:49,780
lite spårdomar helt enkelt.
93 00:04:50,500 --> 00:04:51,160
Det så gjorde vi
94 00:04:51,160 --> 00:04:52,640
några förra året vid den här tiden.
95 00:04:52,640 --> 00:04:53,620
Och de ska vi gå igenom.
96 00:04:53,640 --> 00:04:55,720
Och se om vi hade någon bra hitrate på.
97 00:04:56,400 --> 00:04:57,780
Och dessutom så ska vi försöka göra
98 00:04:57,780 --> 00:04:59,980
lite nya smarta tankar
99 00:04:59,980 --> 00:05:01,220
kring 2019.
100 00:05:01,580 --> 00:05:02,140
Året som kommer.
101 00:05:02,580 --> 00:05:04,280
Hur känns 2019 så här långt tycker ni?
102 00:05:07,080 --> 00:05:08,360
Lite samma samma.
103 00:05:08,680 --> 00:05:09,920
Ja, alltså som 2018
104 00:05:09,920 --> 00:05:11,580
fast en version till.
105 00:05:12,700 --> 00:05:13,980
Ett steg närmare
106 00:05:13,980 --> 00:05:14,600
avgrunden.
107 00:05:15,360 --> 00:05:17,200
Det har väl varit rätt mycket kaos i USA
108 00:05:17,200 --> 00:05:19,300
men inte så mycket inom datasäkerhet.
109 00:05:19,320 --> 00:05:21,080
Nej, du menar shutdown?
110 00:05:21,080 --> 00:05:23,080
Ja, stänga ner hela…
111 00:05:23,640 --> 00:05:26,600
Jo, men fan, det här glömde vi att ta under nyheterna.
112 00:05:26,660 --> 00:05:27,280
Det borde vi ha gjort.
113 00:05:27,760 --> 00:05:30,100
De har ju…
114 00:05:30,100 --> 00:05:33,000
De har ju råkat
115 00:05:33,000 --> 00:05:34,540
missa med att
116 00:05:34,540 --> 00:05:36,420
det gick att ta pdf-en
117 00:05:36,420 --> 00:05:38,680
och ta det här
118 00:05:38,680 --> 00:05:40,500
svartmarkerade och
119 00:05:40,500 --> 00:05:42,780
kopiera det och paste det in i ett Word-dokument.
120 00:05:43,200 --> 00:05:44,440
Så fick man se att…
121 00:05:44,440 --> 00:05:46,400
För nu vet de ju massa om vad de hemliga
122 00:05:46,400 --> 00:05:48,660
stämplade delarna av
123 00:05:48,660 --> 00:05:49,740
utredningarna är nu.
124 00:05:49,740 --> 00:05:50,520
Vilken utredning?
125 00:05:50,780 --> 00:05:53,000
Ja, mot han.
126 00:05:53,640 --> 00:05:54,860
Man har fart eller nåt.
127 00:05:54,880 --> 00:05:55,480
Man har fart, ja.
128 00:05:55,840 --> 00:05:58,720
Så man vet att han är på och
129 00:05:58,720 --> 00:06:01,300
var inne och jobbade med kampanjen
130 00:06:01,300 --> 00:06:03,360
efter att han blivit president.
131 00:06:03,720 --> 00:06:04,860
Shit, vilket fail.
132 00:06:04,920 --> 00:06:06,920
Det var en massa spännande göttigt här.
133 00:06:07,320 --> 00:06:07,540
Ja.
134 00:06:08,740 --> 00:06:10,660
En annan kul grej apropå
135 00:06:10,660 --> 00:06:13,200
det stora landet i väster och 2019
136 00:06:13,200 --> 00:06:14,800
är ju att många av dem
137 00:06:14,800 --> 00:06:17,240
och Government Shutdown är att många av de stora
138 00:06:17,240 --> 00:06:19,480
myndighetssajterna, jag tror jag har sett tre idag
139 00:06:19,480 --> 00:06:21,320
har ju utgångna cert.
140 00:06:21,800 --> 00:06:22,960
Det är ju lite pinsamt.
141 00:06:23,640 --> 00:06:24,920
Fast vi kanske inte ska
142 00:06:24,920 --> 00:06:27,220
snacka för högt om det
143 00:06:27,220 --> 00:06:28,560
med tanke på vår egen sajt.
144 00:06:28,820 --> 00:06:31,040
Det är väl en stenig glashus hela den här biten?
145 00:06:31,060 --> 00:06:33,540
Lite grann så. Men det löste sig i alla fall relativt fort.
146 00:06:34,700 --> 00:06:35,980
Men ja, säkerhetspodcasten
147 00:06:35,980 --> 00:06:38,760
var lite drabbade av samma problem ett tag.
148 00:06:38,880 --> 00:06:39,960
Men om jag förstod det rätt
149 00:06:39,960 --> 00:06:42,160
så var vi inte helt dumma i huvudet
150 00:06:42,160 --> 00:06:44,420
utan problemet var att det var en nätleverantör
151 00:06:44,420 --> 00:06:46,300
som hade en dator
152 00:06:46,300 --> 00:06:48,720
med en helt kassklocka som var…
153 00:06:48,720 --> 00:06:50,860
Så att vi var…
154 00:06:50,860 --> 00:06:52,180
Vi friskriver oss allt ansvar.
155 00:06:52,200 --> 00:06:53,180
Vi hade problemet.
156 00:06:53,640 --> 00:06:55,720
Som jag har förstått
157 00:06:55,720 --> 00:06:56,880
fått det förklarat för mig
158 00:06:56,880 --> 00:06:59,340
så var det liksom inte vi som var
159 00:06:59,340 --> 00:07:00,900
root cause till att vi fejlade.
160 00:07:01,100 --> 00:07:02,040
Nej, men det är mycket möjligt.
161 00:07:02,360 --> 00:07:05,000
Men trots det så var det lite svårt
162 00:07:05,000 --> 00:07:06,140
att komma in på vår sajt ett tag.
163 00:07:06,740 --> 00:07:07,900
För alla som vill göra det.
164 00:07:08,960 --> 00:07:10,700
Sen så är det ju faktiskt året som Brexit
165 00:07:10,700 --> 00:07:12,380
kommer förmodligen hända på något
166 00:07:12,380 --> 00:07:13,520
ett eller annat sätt.
167 00:07:13,900 --> 00:07:15,420
Och det är väl…
168 00:07:15,420 --> 00:07:16,720
Det är inte så många månader kvar.
169 00:07:16,960 --> 00:07:19,700
Total fucking clusterfuck-varning på det för närvarande.
170 00:07:20,000 --> 00:07:22,060
Ja, det känns det verkligen som.
171 00:07:22,060 --> 00:07:23,480
Det är en riktig sån…
172 00:07:23,640 --> 00:07:26,460
Men de har typ något mystiskt bedrägeriföretag
173 00:07:26,460 --> 00:07:28,780
som hävdar att de har båtar
174 00:07:28,780 --> 00:07:29,440
och att de har
175 00:07:29,440 --> 00:07:31,840
skeppningskontrakt
176 00:07:31,840 --> 00:07:33,880
som ska typ rädda…
177 00:07:33,880 --> 00:07:35,740
De ska med båtar rädda England
178 00:07:35,740 --> 00:07:36,800
och så har det visat sig att
179 00:07:36,800 --> 00:07:39,580
de har inga båtar och de har inga kontrakt.
180 00:07:39,680 --> 00:07:40,760
De har bara ljugit.
181 00:07:41,200 --> 00:07:44,260
Men de har fått en massa miljarder från den brittiska staten.
182 00:07:44,380 --> 00:07:44,800
Som man gör.
183 00:07:45,520 --> 00:07:47,840
Men ja, det kommer säkerligen att ha
184 00:07:47,840 --> 00:07:50,260
impact på säkerhet
185 00:07:50,260 --> 00:07:50,740
på något sätt.
186 00:07:50,960 --> 00:07:52,780
2019 kommer inte bli långtråkigt är det vi säger.
187 00:07:52,780 --> 00:07:53,260
Nej, nej.
188 00:07:53,640 --> 00:07:55,200
Det är ett bra och strukturerat avsnitt.
189 00:07:55,360 --> 00:07:56,040
Ja, det får man väl säga.
190 00:07:56,140 --> 00:07:57,680
Tur är det inte ett strukturerat avsnitt
191 00:07:57,680 --> 00:07:58,740
utan ett nyårsavsnitt.
192 00:07:58,840 --> 00:08:01,100
Men det faller väl under samma kategori ungefär.
193 00:08:01,400 --> 00:08:02,840
Förra året var ett sånt här avsnitt
194 00:08:02,840 --> 00:08:06,120
extremt förvirrat och strukturerat.
195 00:08:06,840 --> 00:08:08,460
Jag tyckte det var riktigt underhållande.
196 00:08:09,360 --> 00:08:11,000
Inte för mig som försökte få fram
197 00:08:11,000 --> 00:08:12,560
vad våra spårdomar var fort
198 00:08:12,560 --> 00:08:14,620
samtidigt som jag försökte somna och lägga mig.
199 00:08:15,620 --> 00:08:17,700
Jag satte det i avsnittet
200 00:08:17,700 --> 00:08:19,040
på 2x-spyrd.
201 00:08:20,080 --> 00:08:20,880
Och det var bara chatter
202 00:08:20,880 --> 00:08:21,500
och nonstop.
203 00:08:21,500 --> 00:08:22,260
Och jag försökte så här.
204 00:08:22,380 --> 00:08:23,600
Men nu är vi fortfarande kvar på
205 00:08:23,640 --> 00:08:24,840
första spårdomen.
206 00:08:25,340 --> 00:08:27,180
Och någonstans när jag börjar känna det här
207 00:08:27,180 --> 00:08:29,620
det här är som en jävla galensk…
208 00:08:29,620 --> 00:08:31,200
Hur orkar någon lyssna på det här?
209 00:08:31,480 --> 00:08:32,760
Vad är det för fel på oss?
210 00:08:33,100 --> 00:08:34,760
Så helt plötsligt när jag är där och undrar
211 00:08:34,760 --> 00:08:37,180
vad är det som händer i det här jävla avsnittet egentligen?
212 00:08:37,700 --> 00:08:39,800
Så hör man Jesper i panik
213 00:08:39,800 --> 00:08:40,560
skrika ut.
214 00:08:40,920 --> 00:08:43,280
Vad pratar ni om? Vad är det som händer?
215 00:08:43,980 --> 00:08:45,920
Ja, då hade han zonat ut det där i allt.
216 00:08:46,080 --> 00:08:47,920
Ja, men det var ju bra. Då är han publikens röst.
217 00:08:48,040 --> 00:08:49,140
Och han är dessutom inte här
218 00:08:49,140 --> 00:08:50,060
vilket ni kanske har noterat.
219 00:08:50,140 --> 00:08:52,320
Han är nämligen i Nya Zeeland och har det gött.
220 00:08:52,340 --> 00:08:53,520
Så vi ska ha en tävling.
221 00:08:53,640 --> 00:08:57,180
Vi ska gissa vad var Jespers spårdom.
222 00:08:57,940 --> 00:09:00,260
Vi ska hitta på vad Jespers spårdom var.
223 00:09:00,780 --> 00:09:02,700
Nu ska vi gå in i våra gamla spårdomar.
224 00:09:03,080 --> 00:09:05,080
De vi gjorde 2018.
225 00:09:05,360 --> 00:09:06,620
För ganska exakt ett år sedan då.
226 00:09:07,200 --> 00:09:07,720
Exakt.
227 00:09:08,140 --> 00:09:09,900
Vi skulle kunna börja med Peters kanske.
228 00:09:10,400 --> 00:09:11,220
Oh my god.
229 00:09:11,620 --> 00:09:12,540
Vad förutspår du nu Peter?
230 00:09:13,180 --> 00:09:16,120
Om jag minns rätt så förutspår jag
231 00:09:16,120 --> 00:09:18,040
att dels
232 00:09:18,040 --> 00:09:19,800
att vi skulle börja få en massa AI
233 00:09:19,800 --> 00:09:20,680
i våra verktyg.
234 00:09:20,680 --> 00:09:22,680
Och det är…
235 00:09:23,260 --> 00:09:23,620
Och…
236 00:09:23,620 --> 00:09:27,440
För att få lite spex på det här
237 00:09:27,440 --> 00:09:29,380
så förutspådde jag även
238 00:09:29,380 --> 00:09:30,460
AI-buggar.
239 00:09:30,720 --> 00:09:33,260
Och att vi skulle få ett AI-relaterat säkerhetsvål.
240 00:09:33,620 --> 00:09:35,840
Och jag tror även att AI skulle bli ondskefullt.
241 00:09:35,840 --> 00:09:36,720
Ja, ta över världen.
242 00:09:37,040 --> 00:09:37,940
Att vara med där.
243 00:09:38,700 --> 00:09:41,660
Jag tänkte det. Man får inte ha ett feg spårdom.
244 00:09:41,680 --> 00:09:42,840
Nej, det är riktigt. Spänn bågen.
245 00:09:44,620 --> 00:09:45,940
Hur bra tycker vi
246 00:09:45,940 --> 00:09:47,520
att min spårdom föll ut?
247 00:09:47,840 --> 00:09:48,780
Alltså man har ju sett
248 00:09:48,780 --> 00:09:50,920
att det har gått en trend i AI
249 00:09:50,920 --> 00:09:51,940
och machine learning och så vidare.
250 00:09:52,140 --> 00:09:53,240
Så absolut, det finns ju…
251 00:09:53,240 --> 00:09:54,720
Det finns ju mycket mer nu
252 00:09:54,720 --> 00:09:55,740
kanske än vad det fanns innan.
253 00:09:56,180 --> 00:09:58,780
Jag vet inte om det har kommit så mycket till säkerhetsverktyg.
254 00:09:58,800 --> 00:10:00,440
Skulle det vara brandvägar och sånt där då kanske?
255 00:10:01,060 --> 00:10:01,280
Ja.
256 00:10:01,600 --> 00:10:04,780
Jag pratar så mycket om AI och ML i alla IDS och så vidare.
257 00:10:05,000 --> 00:10:07,760
IDS, IPS, även forensik
258 00:10:07,760 --> 00:10:08,680
börjar man titta på nu.
259 00:10:08,860 --> 00:10:11,060
Jag har inte sett så mycket konkret 2018
260 00:10:11,060 --> 00:10:12,260
som inte fanns redan 2017.
261 00:10:12,840 --> 00:10:14,680
Det har varit mycket snack om det här sjukt länge.
262 00:10:14,920 --> 00:10:17,380
Och sårbarheter i AI har vi väl inte direkt sett?
263 00:10:18,660 --> 00:10:19,100
Däremot.
264 00:10:19,240 --> 00:10:21,300
Sen väldigt specialiserad AI
265 00:10:21,300 --> 00:10:22,780
som machine learning.
266 00:10:23,240 --> 00:10:25,620
Som vi pratade om i det ostrukturella avsnittet
267 00:10:25,620 --> 00:10:25,960
förut.
268 00:10:26,120 --> 00:10:30,160
Där finns det ju
269 00:10:30,160 --> 00:10:31,420
attacker mot
270 00:10:31,420 --> 00:10:32,880
biometriska lösningar och sånt.
271 00:10:33,120 --> 00:10:35,240
Men väldigt extremt
272 00:10:35,240 --> 00:10:37,720
om man ska hävda att det är på något sätt en AI-relaterad attack.
273 00:10:38,220 --> 00:10:39,620
Men du kanske var inne på
274 00:10:39,620 --> 00:10:41,380
OVASP-föreläsningen vi var på?
275 00:10:42,380 --> 00:10:44,000
Det kanske var där det nämndes.
276 00:10:44,320 --> 00:10:46,200
Där pratade ju
277 00:10:46,200 --> 00:10:49,420
Thomas Olsson
278 00:10:49,420 --> 00:10:51,700
när han pratade om
279 00:10:51,700 --> 00:10:53,160
att AI
280 00:10:53,240 --> 00:10:55,240
är en väg att angripa
281 00:10:55,240 --> 00:10:57,000
till exempel machine learning
282 00:10:57,000 --> 00:10:57,760
eller att hitta
283 00:10:57,760 --> 00:10:59,740
var är
284 00:10:59,740 --> 00:11:02,640
var finns det hål
285 00:11:02,640 --> 00:11:04,620
i datasättet och
286 00:11:04,620 --> 00:11:07,480
man skulle avsiktligt kunna göra
287 00:11:07,480 --> 00:11:08,700
hål där
288 00:11:08,700 --> 00:11:11,320
machine learning missar
289 00:11:11,320 --> 00:11:12,900
stoppskyltar med väldigt
290 00:11:12,900 --> 00:11:15,220
selektiva hål i datasättet eller så.
291 00:11:16,120 --> 00:11:16,720
Ja just det.
292 00:11:17,500 --> 00:11:19,180
Det blev med hans att folk pratade lite om
293 00:11:19,180 --> 00:11:20,940
på SECTE dessutom sist.
294 00:11:20,940 --> 00:11:22,000
Hur man kan
295 00:11:22,000 --> 00:11:23,240
lura
296 00:11:23,240 --> 00:11:25,480
sådana recognition-grejer och sånt.
297 00:11:25,900 --> 00:11:27,300
Och där har jag även sett
298 00:11:27,300 --> 00:11:30,300
ett introt till ett talk
299 00:11:30,300 --> 00:11:31,140
som handlade om
300 00:11:31,140 --> 00:11:34,520
inte AI for security utan security for AI.
301 00:11:34,920 --> 00:11:38,260
Det vill säga hur bygger du en AI-modell
302 00:11:38,260 --> 00:11:39,240
eller en AI-maskin
303 00:11:39,240 --> 00:11:41,220
som faktiskt är
304 00:11:41,220 --> 00:11:42,500
motståndskraftig mot hack.
305 00:11:42,920 --> 00:11:43,740
För det har börjat komma
306 00:11:43,740 --> 00:11:45,840
att du använder AI
307 00:11:45,840 --> 00:11:48,400
eller attackerar AI-system
308 00:11:48,400 --> 00:11:50,460
inte bara genom att manipulera
309 00:11:50,460 --> 00:11:51,820
träningdata, alltså lura
310 00:11:51,820 --> 00:11:53,420
träningdata utan förmodligen då för att göra
311 00:11:53,420 --> 00:11:55,360
riktiga attacker om man säger så, klassiska attacker.
312 00:11:55,440 --> 00:11:57,760
Alltså hitta sådana i själva AI-datorn.
313 00:11:58,120 --> 00:11:59,880
Det måste jag faktiskt berätta om
314 00:11:59,880 --> 00:12:02,040
en ganska fräck
315 00:12:02,040 --> 00:12:04,140
cutting-edge-grej som man håller på med
316 00:12:04,140 --> 00:12:06,200
på Chalmers och som man presenterade
317 00:12:06,200 --> 00:12:08,340
på en konferens i Boston
318 00:12:08,340 --> 00:12:09,080
tror jag de var.
319 00:12:10,560 --> 00:12:11,720
När det gäller AI
320 00:12:11,720 --> 00:12:14,160
och säkerhet, det är att man
321 00:12:14,160 --> 00:12:15,720
vänder på det
322 00:12:15,720 --> 00:12:16,900
istället för att
323 00:12:16,900 --> 00:12:20,040
titta på, låta en AI
324 00:12:20,040 --> 00:12:21,100
IDS eller
325 00:12:21,100 --> 00:12:21,740
motsvarande AI-modell.
326 00:12:21,820 --> 00:12:23,240
När det gäller att göra prediction
327 00:12:23,240 --> 00:12:25,540
så gör man alltså
328 00:12:25,540 --> 00:12:27,340
man tittar på
329 00:12:27,340 --> 00:12:30,640
en momentan data
330 00:12:30,640 --> 00:12:32,420
som man sedan tittar på
331 00:12:32,420 --> 00:12:34,060
och jämför med
332 00:12:34,060 --> 00:12:35,700
historiken och säger
333 00:12:35,700 --> 00:12:37,720
skulle den här kunna vara
334 00:12:37,720 --> 00:12:39,900
eller man gör prediction och så säger man
335 00:12:39,900 --> 00:12:42,100
vad är den troliga
336 00:12:42,100 --> 00:12:43,820
nästa datasättpunkten
337 00:12:44,400 --> 00:12:45,320
i det här
338 00:12:45,320 --> 00:12:47,480
sättet och sen så jämför man
339 00:12:47,480 --> 00:12:50,200
ser den ut att tillhöra
340 00:12:50,200 --> 00:12:51,240
det
341 00:12:51,820 --> 00:12:53,800
som var den normala.
342 00:12:54,280 --> 00:12:55,660
Lite effekt faktiskt.
343 00:12:56,520 --> 00:12:57,380
Så man vänder.
344 00:12:57,880 --> 00:12:59,900
Så man letar efter de som sticker ut på något sätt då?
345 00:13:00,320 --> 00:13:01,360
Ja, det är ju sånt.
346 00:13:01,360 --> 00:13:01,640
Man
347 00:13:01,640 --> 00:13:05,680
så omvändningen
348 00:13:05,680 --> 00:13:05,960
till
349 00:13:05,960 --> 00:13:08,780
machine recognition
350 00:13:08,780 --> 00:13:11,160
så är det typ
351 00:13:11,160 --> 00:13:13,640
känna igen det som inte stämmer
352 00:13:13,640 --> 00:13:14,640
så det blir en annan
353 00:13:14,640 --> 00:13:16,100
detektering.
354 00:13:16,300 --> 00:13:18,980
Nu har jag väl fuckat upp beskrivningen av det här så Magnus
355 00:13:18,980 --> 00:13:21,080
kommer väl att ringa mig och gnälla.
356 00:13:21,820 --> 00:13:25,920
Men i stort så kan man säga att man då tittar på
357 00:13:25,920 --> 00:13:29,240
på outliers som då egentligen
358 00:13:29,240 --> 00:13:31,540
ser ut att
359 00:13:31,540 --> 00:13:34,620
avvika ifrån det som är
360 00:13:34,620 --> 00:13:38,460
förväntat då så att det är ett
361 00:13:39,740 --> 00:13:46,140
nytt sätt att använda AI för IDS egentligen istället för att göra en baselining
362 00:13:46,140 --> 00:13:50,740
som man då brukar göra och sen så gör anomalidetektion
363 00:13:50,740 --> 00:13:51,260
och sen så gör anomalidetektion.
364 00:13:51,820 --> 00:13:53,360
Så
365 00:13:53,860 --> 00:13:55,660
försöker man liksom
366 00:13:55,920 --> 00:13:56,940
med hjälp av
367 00:13:58,980 --> 00:14:01,300
den ganska tidiga eller
368 00:14:01,540 --> 00:14:03,600
nya historiken så
369 00:14:03,860 --> 00:14:05,900
tittar man på om en datapunkt
370 00:14:06,160 --> 00:14:07,940
ser ut att tillhöra
371 00:14:09,480 --> 00:14:10,260
det normala.
372 00:14:10,260 --> 00:14:12,560
Okej, så det är mer dynamisk baselining om man säger så?
373 00:14:12,560 --> 00:14:13,060
Ja, just det.
374 00:14:13,060 --> 00:14:15,380
Istället för att sätta ett statiskt baselining
375 00:14:15,380 --> 00:14:17,680
så är den ständigt lärande så att säga.
376 00:14:17,680 --> 00:14:20,740
Det coola är att man gör detta med ganska så snåla
377 00:14:20,740 --> 00:14:21,780
resurser.
378 00:14:21,820 --> 00:14:24,640
Man har implementerat det på
379 00:14:24,640 --> 00:14:27,960
sådana här små odroids.
380 00:14:27,960 --> 00:14:30,260
Typ Raspberry Pi fast med
381 00:14:30,260 --> 00:14:32,320
multicore och
382 00:14:32,320 --> 00:14:33,600
GPU.
383 00:14:33,600 --> 00:14:38,200
Men en sån borde ju vara möjlig att lura om man så länge man gör det lite i taget.
384 00:14:38,200 --> 00:14:38,980
Absolut.
385 00:14:38,980 --> 00:14:44,100
Alla algoritmer går ju att lura.
386 00:14:44,100 --> 00:14:48,700
Det finns ju något gammalt avsnitt av Kordsnack där de pratar om vad det här egentligen är intelligens.
387 00:14:48,700 --> 00:14:50,500
De intervjuar,
388 00:14:50,500 --> 00:14:51,780
jag tror det är två stycken,
389 00:14:51,780 --> 00:14:53,820
en forskare som har varit och talat på någon konferens.
390 00:14:53,820 --> 00:14:55,880
Det här kan vara
391 00:14:55,880 --> 00:14:59,200
kanske 2017 eller 2016 eller någonstans så att
392 00:14:59,200 --> 00:15:01,760
det är ett gammalt Kordsnack avsnitt men
393 00:15:01,760 --> 00:15:05,600
där pratar de en del om att
394 00:15:05,600 --> 00:15:08,680
prata om att en AI är ond
395 00:15:08,680 --> 00:15:10,460
till exempel
396 00:15:10,460 --> 00:15:16,860
är nonsens för att då tillskriver du någon sorts mänsklig intention bakom agerandet vilket en
397 00:15:16,860 --> 00:15:20,700
annorlunda intelligens behöver liksom inte ha någonting som
398 00:15:20,700 --> 00:15:21,740
matchar in på ett
399 00:15:21,740 --> 00:15:24,300
traditionellt synsätt på det sättet.
400 00:15:24,300 --> 00:15:28,660
Och det de tar upp som en annan sån här rolig grej det är
401 00:15:28,660 --> 00:15:31,220
vissa bläckfiskar
402 00:15:31,220 --> 00:15:34,280
är vi väldigt övertygade om att de är smarta.
403 00:15:34,280 --> 00:15:37,620
Att de är riktigt, riktigt smarta men det är svårt
404 00:15:37,620 --> 00:15:41,960
att få vissa av dem att medverka i intelligenstester för att de
405 00:15:41,960 --> 00:15:48,360
de verkar förstå att de är under test och de verkar tycka att människor är så fruktansvärt ointressanta så att
406 00:15:48,360 --> 00:15:50,920
de liksom inte aktivt deltar i testandet.
407 00:15:51,740 --> 00:15:54,300
This is beneath me.
408 00:15:54,300 --> 00:15:59,940
Det finns ju djur där vi kan identifiera och observera vissa typer av intelligenser som
409 00:15:59,940 --> 00:16:06,080
en del bläckfiskar och en del korpar och liknande att du kan göra massa lekar som testar deras
410 00:16:06,080 --> 00:16:07,360
intelligens och sådant.
411 00:16:07,360 --> 00:16:14,020
Och det beror väldigt mycket på att de tycker att det är kul att delta och göra leken och att det är så här men
412 00:16:14,020 --> 00:16:16,060
det finns intelligenser
413 00:16:16,060 --> 00:16:20,420
som är svåra att jämföra med våra tester för att de skiter i testet.
414 00:16:20,420 --> 00:16:21,700
Det påminner mig om
415 00:16:21,700 --> 00:16:25,280
råttorna i Liftans kvart i galaxen.
416 00:16:25,280 --> 00:16:28,860
Om ni minns den jävla boken som är helt fantastisk där
417 00:16:28,860 --> 00:16:33,220
man har hela tiden trott att det är människor som har utfört experiment på råttor.
418 00:16:33,220 --> 00:16:37,320
Men i själva verket är det råttorna som har experimenterat på människorna.
419 00:16:37,320 --> 00:16:41,420
Men det var ett sidospår men vi måste ju ge dig någon form av poäng här på din fördom.
420 00:16:41,420 --> 00:16:45,500
Vad tycker ni om hur bra jag har lyckats här?
421 00:16:45,500 --> 00:16:46,280
Sådär.
422 00:16:46,280 --> 00:16:51,660
När vi sammanfattar 2018 så säger ju inte jag att AI-attackar
423 00:16:51,700 --> 00:16:54,260
och AI-defens mot varandra direkt.
424 00:16:54,260 --> 00:16:55,540
Eller AI-war.
425 00:16:55,540 --> 00:16:58,100
Att AI har ökat eller sådant.
426 00:16:58,100 --> 00:17:00,140
Och grejen var ju att när jag gjorde den här predictionen
427 00:17:00,140 --> 00:17:08,080
det var väl efter att han och Mr. Tesla killen Elon Musk och några andra hade pratat om AI-risker och så här.
428 00:17:08,080 --> 00:17:12,940
Så att jag hade ju liksom stora tänkare att stötta mig på.
429 00:17:12,940 --> 00:17:16,280
Men 2018 blev nog inte riktigt året där de fick rätt.
430 00:17:16,280 --> 00:17:19,600
Men samtidigt är det ju ett tokfel eftersom jag tycker att i stort så har ju
431 00:17:19,600 --> 00:17:21,660
ML och AI varit en snackis i år.
432 00:17:21,700 --> 00:17:23,240
Ja, det tycker jag.
433 00:17:23,240 --> 00:17:26,300
Det är det alla studenter vill läsa.
434 00:17:26,300 --> 00:17:28,360
Ja, men det är ju superporrigt.
435 00:17:28,360 --> 00:17:29,900
Det har gått framåt men…
436 00:17:29,900 --> 00:17:31,420
Inte en halv poäng.
437 00:17:31,420 --> 00:17:32,960
Men kanske 0,2.
438 00:17:32,960 --> 00:17:34,500
0,2 kan vi ge dig.
439 00:17:34,500 --> 00:17:36,300
Vad är skalan?
440 00:17:36,300 --> 00:17:37,820
En poäng är rätt.
441 00:17:37,820 --> 00:17:41,420
Så du får 20 procent rätt. Det är ändå rätt okej.
442 00:17:41,420 --> 00:17:42,940
Mattias.
443 00:17:42,940 --> 00:17:44,480
Du tog dig på en stor webbsågaret.
444 00:17:44,480 --> 00:17:46,780
Du stal nämligen min.
445 00:17:46,780 --> 00:17:50,620
Ska vi vara helt ärliga så var det ju så här. Jag har läst på.
446 00:17:50,620 --> 00:17:53,700
Du tog dig på en riktigt trasig, ett stort webbrånverk.
447 00:17:53,700 --> 00:17:57,780
Ja, jag började ju med att prata 2017, alltså året innan det.
448 00:17:57,780 --> 00:18:03,420
Då sa jag automotive attacks in the wild med fokus på egentligen back-end-attackar.
449 00:18:03,420 --> 00:18:09,300
Och det hade ju inte hänt så mycket sånt 2017 så jag ville ju helst nästan fortsätta med den.
450 00:18:09,300 --> 00:18:11,620
Men det var ju för lätt att säga det.
451 00:18:11,620 --> 00:18:15,960
Och sen så tänkte jag även, en annan lätt självklar grej var ju Spectrum Meltdown.
452 00:18:15,960 --> 00:18:19,540
Att det kommer bli mer eftersom den har ju precis hänt och det var ju så självklart det skulle komma mer och sånt.
453 00:18:19,540 --> 00:18:20,580
Ja. Men det var också fegt.
454 00:18:20,580 --> 00:18:23,900
Så då hoppade jag på något helt annat och så stor webbsågrahet.
455 00:18:23,900 --> 00:18:26,460
Och där kan vi ju se att jag är ju lite före min tid då.
456 00:18:26,460 --> 00:18:31,340
För att under 2018 så har vi ju börjat se back-end-attacker i automotive settings.
457 00:18:31,340 --> 00:18:36,700
Fortfarande inga OEMer, alltså biltillverkare, som egentligen har fått ta det så hårt.
458 00:18:36,700 --> 00:18:39,780
Annat än att de har fått lite data breaches och sånt där.
459 00:18:39,780 --> 00:18:43,100
Men rena telematikattacker och sånt med back-end har vi inte sett där.
460 00:18:43,100 --> 00:18:50,540
Däremot finns det i alla fall två car sharing liknande företag och även ett eftermonterat larmföretag.
461 00:18:50,580 --> 00:18:52,620
Som har åkt på det på riktigt.
462 00:18:52,620 --> 00:18:56,980
Så att man liksom via back-end-delarna kan sno bilar.
463 00:18:56,980 --> 00:19:01,340
Men nu tycker jag att du sitter här och försvarar din prediction för ett år längre fram i tiden.
464 00:19:01,340 --> 00:19:04,660
För att nyansera min bild så vill jag gärna ta med det.
465 00:19:04,660 --> 00:19:09,780
Och samma sak måste vi hävda där Spectrum Meltdown som var en potentiell spaning.
466 00:19:09,780 --> 00:19:14,140
Den har ju definitivt slått till det i 2018. Den kommer ju fan varannan månad kommer en ny grej.
467 00:19:14,140 --> 00:19:15,420
Så är det definitivt. Men det går inte det.
468 00:19:15,420 --> 00:19:18,480
Nej, det går inte det. Utan det var som sagt stora webbsågraheter.
469 00:19:18,480 --> 00:19:20,540
Och det var dessutom specifikt javascript.
470 00:19:20,540 --> 00:19:22,340
Ramverk som skulle åka på det.
471 00:19:22,340 --> 00:19:23,860
Jag vet att du nämnde Angler bland annat.
472 00:19:23,860 --> 00:19:26,420
Och det har ju inte hänt då. De har haft sårbarheter.
473 00:19:26,420 --> 00:19:30,780
De har haft många sårbarheter. Angler tror jag har haft 7-8 stycken grejer.
474 00:19:30,780 --> 00:19:35,640
Men alla ligger på typ 6,5 på CVSS eller någonting. Så det har inte varit så jätteallvarligt.
475 00:19:35,640 --> 00:19:39,480
Jag såg att React hade också några. Voo hade väl en som var fetast.
476 00:19:39,480 --> 00:19:42,040
Men den är väl inte så spridd vad jag vet Voo.
477 00:19:42,040 --> 00:19:44,600
Så där får vi nog säga fail på den.
478 00:19:44,600 --> 00:19:46,140
Jag tror också det.
479 00:19:46,140 --> 00:19:48,180
Det är nog nolla på den alltså.
480 00:19:48,180 --> 00:19:49,720
Däremot Apache Struts.
481 00:19:49,720 --> 00:19:50,500
Jo.
482 00:19:50,500 --> 00:19:53,320
Men inte så mycket javascript där.
483 00:19:53,320 --> 00:19:56,640
Nej, inte faktiskt. Men ja, hej.
484 00:19:56,640 --> 00:19:59,980
Om vi ska gå på din historik här då.
485 00:19:59,980 --> 00:20:02,280
Så lär vi förmodligen se dig under 2019.
486 00:20:02,280 --> 00:20:03,820
Ja, nästa år.
487 00:20:03,820 --> 00:20:09,960
Så det är ett stalltips om ni vill ha en säker häst för nästa prediction.
488 00:20:09,960 --> 00:20:11,500
Jag tänkte inte fega i år.
489 00:20:11,500 --> 00:20:13,800
Din bunker nu.
490 00:20:13,800 --> 00:20:16,620
Och apropå att inte fega då, Rickard.
491 00:20:16,620 --> 00:20:19,680
Du hade ju en prediction som gick ut på en stor data breach.
492 00:20:19,680 --> 00:20:20,460
Ja.
493 00:20:20,460 --> 00:20:23,540
Precis.
494 00:20:23,540 --> 00:20:26,860
Det har väl varit ett par stycken
495 00:20:26,860 --> 00:20:32,500
som jag skulle vilja ha det till att jag fått rätt.
496 00:20:32,500 --> 00:20:35,820
Jag sa till och med att någon av de stora drakarna skulle åka på.
497 00:20:35,820 --> 00:20:38,120
Någon av de som harvestar vår information.
498 00:20:38,120 --> 00:20:41,200
De skulle bli tagna med byxorna nere.
499 00:20:41,200 --> 00:20:44,780
Du vet att du dessutom nämnde video- och hälsodata bland annat.
500 00:20:44,780 --> 00:20:47,340
Stor personal identifiable information.
501 00:20:47,340 --> 00:20:48,360
Absolut.
502 00:20:48,360 --> 00:20:49,380
Det gjorde jag nog.
503 00:20:50,460 --> 00:20:54,820
Jag tänker Cambridge Analytica-debattlet.
504 00:20:54,820 --> 00:21:01,980
Det var ju ett stort data breach där människor kommer faktiskt att bry sig.
505 00:21:01,980 --> 00:21:06,840
Jag tror att det slog ner och folk började fundera lite på det.
506 00:21:06,840 --> 00:21:12,980
Det har ju varit flera gånger som det har varit stora uppebord
507 00:21:12,980 --> 00:21:16,820
som har försökt få alla att sluta använda fejan och liknande.
508 00:21:16,820 --> 00:21:17,860
Absolut.
509 00:21:17,860 --> 00:21:19,900
Men Cambridge Analytica.
510 00:21:19,900 --> 00:21:21,700
Den tyckte jag väl…
511 00:21:21,700 --> 00:21:26,560
Även om det inte var ett data breach utan det var ju mer en data misuse.
512 00:21:26,560 --> 00:21:31,420
Ja och det tillsammans med det har ju varit en del sådana här interna utvecklarbrev och sådant där
513 00:21:31,420 --> 00:21:34,500
som släpptes bara för en månad sedan från Facebook just.
514 00:21:34,500 --> 00:21:38,080
Hur de resonerade i vissa privacy-fall och sådant internt.
515 00:21:38,080 --> 00:21:40,120
Det fick ju ett jävla skruv det.
516 00:21:40,120 --> 00:21:45,760
Så jag kan nog hävda att även om inte data breachen hände så reaktionen på det definitivt.
517 00:21:45,760 --> 00:21:47,300
Reaktionen fanns där definitivt.
518 00:21:47,300 --> 00:21:49,860
Sen om vi då ska prata privacy-data.
519 00:21:49,860 --> 00:21:56,000
Det som har blivit exponerat så har ju tyska Bundestag åkt på det så det ryker om det.
520 00:21:56,000 --> 00:21:57,280
Fast det är ju inte…
521 00:21:57,280 --> 00:21:59,340
Det är ju mer riktade hackerattacker där man har liksom…
522 00:21:59,340 --> 00:22:01,120
Det är mot individer som har det mot Bundestag.
523 00:22:01,120 --> 00:22:04,200
Där man har gått ut och liksom lagt ut deras privata konversationer.
524 00:22:04,200 --> 00:22:09,060
Och där skulle man väl dessutom gärna hävda att visserligen det här genomfördes i december men det upptäcktes i januari.
525 00:22:09,060 --> 00:22:11,620
Nej, det publicerades i januari.
526 00:22:11,620 --> 00:22:15,720
Nej, publicerades i december, upptäcktes av dem i januari.
527 00:22:15,720 --> 00:22:17,760
Första december gjordes första publikationen.
528 00:22:17,760 --> 00:22:19,820
Jo, men de upptäckte det i januari.
529 00:22:19,860 --> 00:22:23,180
Ja, om inte tyska underrättade tjänsten.
530 00:22:23,180 --> 00:22:23,960
Nej, nej.
531 00:22:23,960 --> 00:22:27,280
Men ja, det blev i alla fall stort den tredje januari.
532 00:22:27,280 --> 00:22:28,300
Ja, den…
533 00:22:28,300 --> 00:22:29,840
Jag tycker vi kan räkna med 2018.
534 00:22:29,840 --> 00:22:31,640
Den gick publikt i januari.
535 00:22:31,640 --> 00:22:33,420
Men det är en stor data breach.
536 00:22:33,420 --> 00:22:37,780
Däremot, vad hette det företaget Equifax? Var det under 2018?
537 00:22:37,780 --> 00:22:39,820
Nej, det kunde inte vara.
538 00:22:39,820 --> 00:22:40,860
Det var 2017.
539 00:22:40,860 --> 00:22:42,640
Det känns som att det var in the before time.
540 00:22:42,640 --> 00:22:43,660
Jag tror nästan att det var NHL.
541 00:22:43,660 --> 00:22:45,460
Jag kan googla.
542 00:22:45,460 --> 00:22:48,540
Alltså de som åkte på det och läckte…
543 00:22:48,540 --> 00:22:49,040
Just det.
544 00:22:49,040 --> 00:22:51,340
Typ alla amerikaners…
545 00:22:51,340 --> 00:22:52,620
Kredithistorik.
546 00:22:52,620 --> 00:22:53,640
Ja.
547 00:22:53,640 --> 00:22:55,700
Men Equifax var fan förra året.
548 00:22:55,700 --> 00:22:58,260
I så fall får du en full pott på den, skulle jag säga.
549 00:22:58,260 --> 00:22:59,540
För den är ju…
550 00:22:59,540 --> 00:23:00,560
Ja, den är grym.
551 00:23:00,560 --> 00:23:01,320
Den är ju väldigt bra.
552 00:23:01,320 --> 00:23:05,160
Den är ju inte hälsodata, men den har serien kreditupplysningsdata och…
553 00:23:05,160 --> 00:23:06,960
Var inte till och med social security numbers med och sånt?
554 00:23:06,960 --> 00:23:07,980
Jo, alltihopa.
555 00:23:07,980 --> 00:23:10,280
Det är ju rätt mycket. Det kan vi inte komma och åka…
556 00:23:10,280 --> 00:23:11,560
Det kan vi inte sticka under stol med.
557 00:23:11,560 --> 00:23:12,340
Just det.
558 00:23:12,340 --> 00:23:14,640
Den hade jag glömt bort.
559 00:23:14,640 --> 00:23:17,720
Ja, Equifax var kvart 2017.
560 00:23:17,720 --> 00:23:19,000
Eeeeeeh!
561 00:23:19,000 --> 00:23:22,700
Med maj till juli 2017.
562 00:23:22,700 --> 00:23:24,880
Close, but no cigar.
563 00:23:24,880 --> 00:23:27,440
Sorry, men jag skulle kunna släcka mig till ett halvt poäng.
564 00:23:27,440 --> 00:23:28,220
Jag håller med.
565 00:23:28,220 --> 00:23:33,600
Ett halvt poäng för du namnsatte Google och Facebook.
566 00:23:33,600 --> 00:23:35,640
Och Facebook tycker jag har åkt på det rätt hårt i år.
567 00:23:35,640 --> 00:23:36,160
Absolut.
568 00:23:36,160 --> 00:23:38,720
De har ju suttit i sin första års utfrågning.
569 00:23:38,720 --> 00:23:39,220
Ja.
570 00:23:40,240 --> 00:23:41,280
Så definitivt.
571 00:23:41,280 --> 00:23:47,680
Cambridge Analytica’s moderbolag dömdes nu till böter.
572 00:23:47,720 --> 00:23:53,800
För någonting, vad det var, om jag får tjuvläsa innantill.
573 00:23:55,380 --> 00:24:01,020
Och jo, de plidede giltig för att de hade
574 00:24:01,020 --> 00:24:07,580
failing to comply with an enforcement notice issued by the National Data Protection Watchdog.
575 00:24:08,580 --> 00:24:08,860
Okej.
576 00:24:09,440 --> 00:24:13,420
Så det är en smäll på fingrarna för det var typ 15 000 pund.
577 00:24:14,120 --> 00:24:15,520
Cost of doing business.
578 00:24:15,520 --> 00:24:20,400
Men det är ändå en moralisk seger, får vi väl säga.
579 00:24:20,880 --> 00:24:22,580
Ja, och det kanske är prioriserande.
580 00:24:23,300 --> 00:24:26,420
Men ja, 0,5 där är jag villig.
581 00:24:26,540 --> 00:24:27,980
Coolt, jag tar dem.
582 00:24:29,320 --> 00:24:32,180
Så vi går vidare till Jesper, han är ju inte här och kan försvara sig.
583 00:24:32,860 --> 00:24:35,080
Men han hade ju ändå en prediction från förra året och den var
584 00:24:35,080 --> 00:24:39,720
att han trodde på stora attacker mot intressinfrastruktur, typ BGP och liknande.
585 00:24:39,960 --> 00:24:41,100
Eller DNS eller något där va?
586 00:24:41,100 --> 00:24:41,280
Ja.
587 00:24:43,300 --> 00:24:45,400
Det har väl varit ett antal om BGP?
588 00:24:45,520 --> 00:24:46,400
Ajax och så?
589 00:24:47,300 --> 00:24:50,060
Ja, fast ingenting som har blivit så jävla stort.
590 00:24:50,240 --> 00:24:52,120
Jag vet att det senaste vi pratade om var ju att
591 00:24:52,120 --> 00:24:55,260
det började gå lite trafik genom Afrika och Asien.
592 00:24:56,020 --> 00:24:57,640
Men det var ingen så här…
593 00:24:57,640 --> 00:25:01,720
Det verkade ju dessutom som att det var ett misstag snarare än en attack.
594 00:25:02,280 --> 00:25:05,640
Eller ja, det verkar ju inte ha varit superfet impact.
595 00:25:05,740 --> 00:25:10,860
Det har varit ett antal incidenter under 2018, men…
596 00:25:10,860 --> 00:25:12,040
Jag vet inte om vi kan säga…
597 00:25:12,040 --> 00:25:14,200
The year of infrastructure attacks?
598 00:25:14,500 --> 00:25:14,820
Nej.
599 00:25:15,520 --> 00:25:24,380
Så jag vet inte om det stack 2018 ut överhuvudtaget från tidigare år när det kom till det här.
600 00:25:24,520 --> 00:25:27,600
Nej, inte när det kommer till infrastruktur. Det tycker jag inte.
601 00:25:28,020 --> 00:25:28,860
Så det är nolla på det?
602 00:25:29,080 --> 00:25:30,140
Ja, definitivt.
603 00:25:31,280 --> 00:25:32,740
Han är inte här och kan försvara sig.
604 00:25:33,800 --> 00:25:34,580
Exakt så tänkte jag.
605 00:25:34,680 --> 00:25:36,560
Så jag skulle säga att, vad ligger vi på här nu då?
606 00:25:36,620 --> 00:25:38,940
Du fick 0,5, Rickard.
607 00:25:39,400 --> 00:25:42,020
Och Peter kvarade in på 0,2 tror jag att du sa va?
608 00:25:42,260 --> 00:25:43,000
Jag ligger på noll.
609 00:25:43,120 --> 00:25:44,740
Du ligger på noll och Jesper på noll.
610 00:25:44,740 --> 00:25:45,480
Så just nu ligger vi…
611 00:25:45,480 --> 00:25:46,860
Då ligger vi då på 0,7.
612 00:25:47,480 --> 00:25:48,240
Jag tror vi är 0,8.
613 00:25:48,560 --> 00:25:50,980
Det var ju ett ganska kassavara produkt.
614 00:25:51,340 --> 00:25:54,540
Jo, men vi kan tydligen ligga ett år liksom före.
615 00:25:55,760 --> 00:25:59,340
Och jag då förutspådde all out cyber war.
616 00:26:01,320 --> 00:26:02,540
För jag spände på bågen lite.
617 00:26:02,780 --> 00:26:03,940
Eller egentligen det jag sa då.
618 00:26:04,020 --> 00:26:09,680
För vi har ju sett såklart att militär och underrättet tjänst och andra har gjort dåliga saker på internet.
619 00:26:10,260 --> 00:26:11,360
Men det var inte riktigt det.
620 00:26:11,600 --> 00:26:12,560
För det var ju så fegt.
621 00:26:12,800 --> 00:26:15,100
Så det jag förutspådde var ju mer eller mindre.
622 00:26:15,480 --> 00:26:19,260
Att öppet och tydligt, nu är det cyber warfare.
623 00:26:19,280 --> 00:26:20,340
Nu förklarar vi krig.
624 00:26:20,560 --> 00:26:22,740
Ja, och vi använder detta som krigsföring.
625 00:26:23,120 --> 00:26:25,100
Vi slår ut infrastruktur och annat.
626 00:26:25,680 --> 00:26:27,560
Och det blir uppenbart.
627 00:26:27,720 --> 00:26:29,520
Och det tycker jag inte riktigt att vi har sett.
628 00:26:29,520 --> 00:26:29,880
Nej.
629 00:26:30,920 --> 00:26:33,060
Det är mycket möjligt att det har hänt.
630 00:26:33,200 --> 00:26:35,620
Det är fortfarande mycket cloak and dagger känns det som.
631 00:26:35,700 --> 00:26:38,240
Ja, men jag tycker inte att vi kan ge mig poäng på det.
632 00:26:38,680 --> 00:26:38,700
Nej.
633 00:26:39,360 --> 00:26:44,620
Det är extremt mycket informationsinsamling.
634 00:26:45,480 --> 00:26:47,900
Det är mycket spionage på nätet.
635 00:26:47,980 --> 00:26:50,240
Och mycket fake news.
636 00:26:50,660 --> 00:26:51,860
Väldigt mycket propaganda.
637 00:26:52,100 --> 00:26:55,680
Påverkansoperation har definitivt pågått under 2018.
638 00:26:55,680 --> 00:27:01,880
Men det var där jag ville särskilda lite från underrättelseverksamhet och den typen av grejer till militära.
639 00:27:02,220 --> 00:27:02,940
Tekniska attacker.
640 00:27:04,460 --> 00:27:08,060
Man kan till och med säga att det har ju varit mindre 2018 än det var 2017.
641 00:27:09,220 --> 00:27:11,240
Så då lär det ju förmodligen hända i år då.
642 00:27:11,600 --> 00:27:12,140
Ja, precis.
643 00:27:12,140 --> 00:27:13,020
Om vi ska tro på vår historia.
644 00:27:13,160 --> 00:27:15,240
Ja, men allt det här vi har sagt det kommer ju hända i nästa.
645 00:27:15,480 --> 00:27:16,840
Under 2019.
646 00:27:17,800 --> 00:27:20,380
Så jag tror tyvärr att vi landar på 0,7.
647 00:27:21,280 --> 00:27:22,460
Sämre resultat än förra året.
648 00:27:22,480 --> 00:27:23,600
Det har gått ner 0,1.
649 00:27:24,240 --> 00:27:27,600
Och det är ju en väldigt hårt typad skala det här.
650 00:27:27,740 --> 00:27:31,060
Så det är ju verkligen så att vi i absoluta mått är 0,1 sämre än förra året.
651 00:27:31,080 --> 00:27:31,600
Ja, det är vi faktiskt.
652 00:27:32,040 --> 00:27:33,040
Vi går inte att diskutera.
653 00:27:36,100 --> 00:27:41,040
Men om vi går över till marginära poäng så kan man inte jämföra om det är större eller mindre.
654 00:27:41,220 --> 00:27:42,480
Så vi vann.
655 00:27:43,480 --> 00:27:44,380
Det kan vi sluta oss till.
656 00:27:45,480 --> 00:27:46,440
Nej, men vi får väl se då.
657 00:27:46,560 --> 00:27:51,360
Som Mattias sa där att vi ligger ju alltid ett år för långt fram.
658 00:27:51,600 --> 00:27:55,000
Så att alla våra predictions för förra året kommer inte träffa under 2019.
659 00:27:55,900 --> 00:27:56,260
Förmodligen.
660 00:27:56,480 --> 00:27:56,840
Helt enkelt.
661 00:27:56,960 --> 00:28:02,600
Men det ska vi skita i nu för nu ska vi gå över till vad vi faktiskt har för nya predictions för detta året.
662 00:28:03,160 --> 00:28:04,720
2019, here we come.
663 00:28:04,800 --> 00:28:05,920
Och vi kan väl börja med Mattias.
664 00:28:06,160 --> 00:28:10,380
Ja, det var en jävla bra idé eftersom jag inte alls har lyckats vaska fram någonting.
665 00:28:11,780 --> 00:28:13,620
Jag försökte sammanfatta 2018.
666 00:28:13,740 --> 00:28:15,060
Vad var det egentligen som hände 2018?
667 00:28:15,060 --> 00:28:18,700
Jag tyckte att den trenden vi kunde se var supply chain-attackar.
668 00:28:19,540 --> 00:28:23,100
Dels hade vi ju riktiga sådana javascript-baserade NPM-grejer.
669 00:28:23,580 --> 00:28:30,760
Och även Magecart som gick mot e-commerce-sajten direkt till moderskeppet för att sluta alla kunderna.
670 00:28:31,380 --> 00:28:35,400
Och sen var det ju det här fake, eller probably fake hårdvaruinplanten.
671 00:28:35,540 --> 00:28:39,240
Men det känns ju som supply chain, det vill säga direkt mot målet är jobbigt.
672 00:28:40,100 --> 00:28:43,580
Men gå till deras leverantörer kändes som att det var lite trend under 2018.
673 00:28:45,060 --> 00:28:48,360
Då kan man ju säga att det blir mer sånt, men det är ju också jävligt tråkigt.
674 00:28:48,380 --> 00:28:50,080
Och fake news kommer det att bli mer av.
675 00:28:50,200 --> 00:28:52,500
Jag tycker more of the same in predictions som är tråkiga.
676 00:28:52,640 --> 00:28:54,140
Ja, jag håller med helt.
677 00:28:55,040 --> 00:28:57,000
Även om det förmodligen garanterat är rätt.
678 00:28:57,600 --> 00:28:58,660
Nej, men vi får väl göra någonting.
679 00:28:58,780 --> 00:29:01,980
Jag får försöka ta en spin på Brexit.
680 00:29:02,660 --> 00:29:05,120
Eller, ja det är det enda roligaste som kommer hända i år.
681 00:29:05,240 --> 00:29:07,760
Ur säkerhetsperspektiv, vad kommer det hända?
682 00:29:08,440 --> 00:29:11,800
Jo, vad kommer det få för konsekvenser?
683 00:29:12,100 --> 00:29:14,800
Men, Europol kanske gör en…
684 00:29:15,060 --> 00:29:20,940
Pollexit och blir en egen organisation och slutar med en polismyndighet.
685 00:29:20,940 --> 00:29:24,940
Någon kommer att attackera Storbritannien, varför kommer de att göra det?
686 00:29:24,940 --> 00:29:28,940
Storbritannien kanske får helt nya domedagslagar vad gäller övervakning.
687 00:29:28,940 --> 00:29:30,940
Du menar värre än de redan har?
688 00:29:30,940 --> 00:29:32,940
Ja, i slutet av Brexit.
689 00:29:32,940 --> 00:29:34,940
Jag är skeptisk till det.
690 00:29:34,940 --> 00:29:36,940
Nu ska jag inte lägga ord i din mun här, utan du får klämma fram någonting.
691 00:29:36,940 --> 00:29:44,880
Ja, jag tror att vi kommer att se en Nordirländsk
692 00:29:44,880 --> 00:29:50,880
cyberfront som kommer ta form och som kommer helt och hållet fokusera på
693 00:29:50,880 --> 00:29:54,880
brittiska politiska mål.
694 00:29:54,880 --> 00:29:56,880
I-R-C-A.
695 00:29:56,880 --> 00:29:58,880
Ja, typ så.
696 00:29:58,880 --> 00:30:00,880
I-R-C-A.
697 00:30:00,880 --> 00:30:02,880
Som kommer fokusera på politiska mål i den brittiska…
698 00:30:02,880 --> 00:30:04,880
Eller C-I-R-A.
699 00:30:04,880 --> 00:30:06,880
Japp.
700 00:30:06,880 --> 00:30:10,880
För de är sjukt missnöjda med den här dealen de får.
701 00:30:10,880 --> 00:30:12,880
Ja, men det är väl en bra prediction.
702 00:30:12,880 --> 00:30:14,880
Brexit means Brexit.
703 00:30:14,880 --> 00:30:20,880
Och då menar du alltså att detta kommer att vara organiserat på riktigt?
704 00:30:20,880 --> 00:30:26,880
På riktigt vet jag inte, men på samma sätt som vi hade en Syrian cyber-army eller vad det heter.
705 00:30:26,880 --> 00:30:34,880
Vi kommer på samma sätt att få en sån underjordisk nordirländsk som kommer att utföra någon slags attacker.
706 00:30:34,880 --> 00:30:38,880
Måste jag väl gå in och spesa exakt vilken C-I-R-A de kommer att använda också?
707 00:30:38,880 --> 00:30:40,880
Nej.
708 00:30:40,880 --> 00:30:42,880
Men du kan ju prata om vad de kommer att angripa.
709 00:30:42,880 --> 00:30:46,880
Ja, det vill säga alltså Labour och Tories och…
710 00:30:46,880 --> 00:30:48,880
Men inte typ terrorism genom cyber?
711 00:30:48,880 --> 00:30:50,880
Nej, nej, nej. Inte infrastruktur.
712 00:30:50,880 --> 00:30:52,880
De kommer att slå till mot cyberbåtarna sen ska de frakta cyberpaket.
713 00:30:52,880 --> 00:30:54,880
Det vill säga logiska informationsattacker liksom.
714 00:30:54,880 --> 00:30:56,880
Ja, okej.
715 00:30:56,880 --> 00:30:58,880
Ja, men det är väl en decent prediction skulle jag säga.
716 00:30:58,880 --> 00:31:00,880
Richard?
717 00:31:00,880 --> 00:31:02,880
Ja…
718 00:31:02,880 --> 00:31:08,880
Lite sådär för att spinna vidare på det som Peter prediktade förra året.
719 00:31:08,880 --> 00:31:10,880
Så tänkte jag säga såhär att…
720 00:31:10,880 --> 00:31:24,880
2019 är det året då börsen kraschar på riktigt och AI beskylls för att vara anledningen.
721 00:31:24,880 --> 00:31:26,880
Såhär supersnabbtrading.
722 00:31:26,880 --> 00:31:28,880
Men vad är cyber i detta någonstans?
723 00:31:28,880 --> 00:31:34,880
Jag tänker just, det hänger inte så mycket ihop med det, men just att AI styr ju otroligt mycket av handeln.
724 00:31:34,880 --> 00:31:36,880
Flashtrading.
725 00:31:36,880 --> 00:31:38,880
Flashtrading och det är margin trading och du ligger och följer…
726 00:31:38,880 --> 00:31:40,880
Ja, det har jag med mig också. Ja, det har jag med mig också.
727 00:31:40,880 --> 00:31:42,880
Men för att det här ska vara it-säkerhet så måste det här vara en attack.
728 00:31:42,880 --> 00:31:44,880
Jo, men jag tror att jag vet hur attacken går till.
729 00:31:44,880 --> 00:31:54,880
Men jag tänker att algoritmerna vrids till och man beskyller AI för att hela börsen går i botten.
730 00:31:54,880 --> 00:31:56,880
Men jag sa att det saknar fortfarande it-säkerhetsaspekter.
731 00:31:56,880 --> 00:31:58,880
Det här har man ju nästan påstått med sådana här fast trading och sådant.
732 00:31:58,880 --> 00:32:08,880
Men jag ser framför mig attackscenariot att någon ligger och lyssnar på det här nätet och börjar lära sig hur de här algoritmerna funkar.
733 00:32:08,880 --> 00:32:15,880
Och börjar sakta men säkert kartlägga var där brytgränsen är när de går sönder.
734 00:32:15,880 --> 00:32:31,880
Och sen vid tiden T så skickar man ut de specifika transaktionsmönstren som får en stor del av de olika tradingapplikationerna att börja rasa samman och lösa ut sina panikoperationer.
735 00:32:31,880 --> 00:32:35,880
Och det blir ju en amplifierad reaktion.
736 00:32:35,880 --> 00:32:37,880
Om någonting börjar hända så börjar de andra haka på.
737 00:32:37,880 --> 00:32:43,880
Och dessutom så löser det ut en massa stopp-losser som gör att det rasar ytterligare.
738 00:32:43,880 --> 00:32:46,880
Men då menar du på riktigt att det är en aktiv manipulering av det här?
739 00:32:46,880 --> 00:32:47,880
Nej.
740 00:32:47,880 --> 00:32:49,880
Men då är det ingen attack.
741 00:32:49,880 --> 00:32:50,880
Det är ingen cyberattack.
742 00:32:50,880 --> 00:32:53,880
Det är fan det i säkerhetspodcasten här. Det är inte en jävla finansforum.
743 00:32:53,880 --> 00:32:54,880
Nej, det är sant.
744 00:32:54,880 --> 00:32:56,880
Jag tycker att du ska ta min valut.
745 00:32:56,880 --> 00:32:58,880
Ja, jag håller med dig.
746 00:32:58,880 --> 00:33:00,880
Min tweak gör den värdig.
747 00:33:00,880 --> 00:33:06,880
Okej, jag köper att det är manipulerat på något sätt.
748 00:33:06,880 --> 00:33:08,880
Så att det liksom går i spinn.
749 00:33:08,880 --> 00:33:11,880
Någon benefitar på att säga att marknaden kraschar?
750 00:33:11,880 --> 00:33:12,880
Precis.
751 00:33:12,880 --> 00:33:13,880
Kanske.
752 00:33:13,880 --> 00:33:14,880
Ja.
753 00:33:14,880 --> 00:33:16,880
Det är inte en valfri rörelse som du kan förutspå.
754 00:33:16,880 --> 00:33:19,880
Kan du liksom lura dem att bete sig på något sätt om det är upp eller ner har ingen betydelse.
755 00:33:19,880 --> 00:33:21,880
För då kan du använda den informationen menar jag.
756 00:33:21,880 --> 00:33:23,880
Och börsen kommer alltså att krascha på grund av detta?
757 00:33:23,880 --> 00:33:25,880
Krascha på riktigt.
758 00:33:25,880 --> 00:33:28,880
Sälj, sälj, sälj. Det var här ni hörde det först.
759 00:33:28,880 --> 00:33:31,880
I själva verket var det min trigger.
760 00:33:31,880 --> 00:33:34,880
Muahaha!
761 00:33:34,880 --> 00:33:37,880
Det tycker jag också är en spännande prediction som jag hoppas att den inte kommer gå i uppfyllelse.
762 00:33:37,880 --> 00:33:39,880
Peter?
763 00:33:39,880 --> 00:33:45,880
Ja, jag tänkte att jag ska försöka göra någonting där jag inte direkt tittar på nyheter.
764 00:33:45,880 --> 00:33:49,880
Utan jag gör en, kanske inte den mest spännande predictionen.
765 00:33:49,880 --> 00:33:55,880
Men jag försöker dra några lärdomar av mina observationer genom arbetslivet.
766 00:33:55,880 --> 00:34:00,880
Och någon gång för länge, länge sedan så hade jag talats om sådana här produktcertifieringar.
767 00:34:00,880 --> 00:34:02,880
När man var en liten baby och gick på universitetet.
768 00:34:02,880 --> 00:34:07,880
Och så liksom såhär med hur de snackade om Common Criteria och lite annat och så.
769 00:34:07,880 --> 00:34:11,880
Och sen spennerade jag väldigt mycket av mitt arbetsliv.
770 00:34:11,880 --> 00:34:15,880
Och det kom liksom aldrig någon som pratade om det här.
771 00:34:15,880 --> 00:34:18,880
Alltså började komma några små lite här och där.
772 00:34:18,880 --> 00:34:24,880
Att någon ville någonting runt Common Criteria eller liknande produktcertifieringar.
773 00:34:24,880 --> 00:34:30,880
Och sen så har jag sett att om man gör grejer som ligger nära kreditkortsbranschen.
774 00:34:30,880 --> 00:34:39,880
Så har man börjat trycka antingen PCI DSS för de som är egna och PCI DA för de som gör.
775 00:34:39,880 --> 00:34:42,880
Men man har också börjat trycka mot underleverantörer.
776 00:34:42,880 --> 00:34:51,880
Att man vill att de delvis uppfyller olika certifieringar för att ha lite säkerhet.
777 00:34:51,880 --> 00:34:59,880
Och vad jag har märkt är att kunder blir liksom kontakter av olika bolag.
778 00:34:59,880 --> 00:35:02,880
Som säger till dem att ni måste sätta er.
779 00:35:02,880 --> 00:35:05,880
Ni måste ta olika säkerhetscertifieringar.
780 00:35:05,880 --> 00:35:08,880
Så jag tycker att jag har identifierat en trend.
781 00:35:08,880 --> 00:35:15,880
Att dels säkerhet och produktsäkerhetscertifieringar börjar refereras till mer och mer.
782 00:35:15,880 --> 00:35:22,880
Och också att det finns olika aktörer som är ute och trycker och försöker övertyga bolag om att man ska certifiera sig.
783 00:35:22,880 --> 00:35:28,880
Så min känsla är att det här är på väg upp.
784 00:35:28,880 --> 00:35:31,880
Så jag vet inte om vi kommer att explodera i företag som produktcertifierar sig.
785 00:35:31,880 --> 00:35:35,880
Och jag vet inte fullt ut hur mycket värdet av de här är.
786 00:35:35,880 --> 00:35:39,880
Men jag tror, för det är en ganska tråkig prediction.
787 00:35:39,880 --> 00:35:46,880
Att produktcertifieringar börjar bli vanligare under 2018 än vad vi har sett historiskt sett.
788 00:35:46,880 --> 00:35:47,880
2019.
789 00:35:47,880 --> 00:35:49,880
2019.
790 00:35:49,880 --> 00:35:55,880
Så jag gör ju reservationen här för att det här är inte den roligaste prognosen eller gissningen.
791 00:35:55,880 --> 00:35:57,880
Men jag tror att…
792 00:35:57,880 --> 00:36:01,880
Det här blir gradvis större och större än vad det har varit.
793 00:36:01,880 --> 00:36:05,880
Så säkerhetscertifieringar för produkter och företag kommer att öka avsevärt?
794 00:36:05,880 --> 00:36:07,880
Det var ju heller inga tack.
795 00:36:07,880 --> 00:36:10,880
Nej, men det var säkerhetsrelaterat i alla fall.
796 00:36:10,880 --> 00:36:12,880
Jävla finansvalp.
797 00:36:12,880 --> 00:36:18,880
Men jag tycker att Peters spaning skulle man kunna dra på lång sikt också.
798 00:36:18,880 --> 00:36:23,880
IT är relativt andra branscher fortfarande ganska omoget.
799 00:36:23,880 --> 00:36:26,880
Och vi har fortfarande väldigt få standarder.
800 00:36:26,880 --> 00:36:31,880
Och jag tror att det ska kunna gå att koppla pengar och försäkringar och sånt till det här.
801 00:36:31,880 --> 00:36:35,880
Det har ju behövt komma cyberförsäkringar men de är väl framförallt ett skämt i dagsläget tror jag.
802 00:36:35,880 --> 00:36:39,880
Men för att det ska kunna gå att göra det framöver så känns det som att det måste komma fram…
803 00:36:39,880 --> 00:36:41,880
Motsvarande svensk byggnorm om man säger så.
804 00:36:41,880 --> 00:36:44,880
Fast för IT-system. Det måste komma fram normer. Så här gör man.
805 00:36:44,880 --> 00:36:48,880
Och det är klart att du kan bygga hus på andra sätt men då kommer du inte kunna försäkra dig.
806 00:36:48,880 --> 00:36:52,880
Och då kommer du att investera alldeles för mycket pengar i ett system som kanske blir hackat.
807 00:36:52,880 --> 00:36:54,880
Och jag tror att det här kommer komma på IT-sidan också.
808 00:36:54,880 --> 00:36:55,880
Ja.
809 00:36:55,880 --> 00:36:59,880
Det kommer liksom vara kanske inte samma vilda västen som det är idag.
810 00:36:59,880 --> 00:37:02,880
Så här får du fan inte göra på ett annat sätt än det här.
811 00:37:02,880 --> 00:37:08,880
Det är olika i olika branscher. Tittar man på Medical till exempel.
812 00:37:08,880 --> 00:37:17,880
Så har de ju väldigt mycket krav på olika typer av standarder.
813 00:37:17,880 --> 00:37:25,880
Och så är det på medicinsktekniska system och system som hanterar patientdata och så vidare.
814 00:37:25,880 --> 00:37:29,880
Så att där finns det ju väldigt mycket.
815 00:37:29,880 --> 00:37:33,880
Sen finns det ju branscher där det inte existerar någonting egentligen.
816 00:37:33,880 --> 00:37:39,880
Och där man i stort sett är utlämnad till djungens lag.
817 00:37:39,880 --> 00:37:42,880
Ja men och tittar du på liksom även på medicinsktekniska system då.
818 00:37:42,880 --> 00:37:45,880
Känner vi behöver ett projekthanteringssystem.
819 00:37:45,880 --> 00:37:49,880
Vad fan ska du göra? Du har bara .net och Java att välja på liksom.
820 00:37:49,880 --> 00:37:53,880
Det är inte så att det finns någon annan färdig plattform som uppfyller alla krav.
821 00:37:53,880 --> 00:37:56,880
Och jag menar de rör ju på sig så det händer ju nya saker hela tiden.
822 00:37:56,880 --> 00:38:00,880
Och då kan du bara få tag i utvecklare som kanske kan just den tekniken som finns nu.
823 00:38:00,880 --> 00:38:04,880
Så då sitter du där med Angular igen liksom.
824 00:38:04,880 --> 00:38:07,880
Så det är inte så att du har något så mycket att välja på.
825 00:38:07,880 --> 00:38:14,880
Och det är det jag menar. Det är det jag tror det kommer bli större krav på struktur och ordning i dem.
826 00:38:14,880 --> 00:38:18,880
Kanske inte så att ramverken måste följa efter i viss mån.
827 00:38:18,880 --> 00:38:21,880
Men jag kan tänka mig just det. Kanske arkitekturen bakom.
828 00:38:21,880 --> 00:38:24,880
Var striktare vad du ens får göra. Vilka mönster du får köra.
829 00:38:24,880 --> 00:38:29,880
Och kanske lite beroende på vad det är för dator du ska hantera så måste du uppnå det här och det här.
830 00:38:29,880 --> 00:38:31,880
Som i SIDSS fast för allt annat.
831 00:38:31,880 --> 00:38:34,880
Vi ser ju mer och mer lagstiftning på området också.
832 00:38:34,880 --> 00:38:37,880
Inom automotive så kommer det hur mycket som helst nu.
833 00:38:37,880 --> 00:38:40,880
Som inte bara är tips och tricks utan det är lagar liksom.
834 00:38:40,880 --> 00:38:42,880
Gör du inte det här så åker du på det.
835 00:38:42,880 --> 00:38:48,880
Det kan man ju förstå nu med tanke på att det rullar fler och fler självkörande bilar på våra vägar.
836 00:38:48,880 --> 00:38:50,880
Att det måste ju på något vis certifieras de algoritmerna.
837 00:38:51,880 --> 00:38:55,880
Att man behöver någon form av gemensam överenskommelse.
838 00:38:55,880 --> 00:39:00,880
Både juridiskt och också mellan försäkringsbolagen.
839 00:39:00,880 --> 00:39:05,880
För någonstans i en kollisionssituation så måste fordonet fatta ett beslut.
840 00:39:05,880 --> 00:39:09,880
Ska jag köra av vägen eller ska jag frontalkrocka?
841 00:39:09,880 --> 00:39:15,880
För det kan vi nämna att både i USA, i Kina, i EU och på FN-nivå.
842 00:39:15,880 --> 00:39:20,880
På alla de ställena så är det just nu lagstiftning på gång inom automotive.
843 00:39:20,880 --> 00:39:27,880
Om man räknar bort automotive eller så där man kanske på något sätt direkt kan säga det.
844 00:39:27,880 --> 00:39:35,880
Utmaningen jag ser med säkerhetscertifieringar överlag det är att påvisa att de faktiskt tillför värde.
845 00:39:35,880 --> 00:39:48,880
Att de funkar bra i verksamheten och är en hjälpande hand i arbetet med att få en säkrare produkt.
846 00:39:48,880 --> 00:39:52,880
Jag ska dra en dålig parallell.
847 00:39:52,880 --> 00:39:59,880
Mina certifieringar kostar mig 3-4 tusen om året att upprätthålla.
848 00:39:59,880 --> 00:40:02,880
Jag vet inte om de tillför lika mycket värde egentligen.
849 00:40:02,880 --> 00:40:08,880
Jag tror det är så här. Det är inte så att de certifieringarna är svaret på säkerhetsfrågan.
850 00:40:08,880 --> 00:40:12,880
Men om du till exempel kastar dem på en organisation där det finns noll säkerhet.
851 00:40:12,880 --> 00:40:14,880
Så tillför de ju någonting.
852 00:40:14,880 --> 00:40:16,880
Kastar du dem på en organisation som kan sin skit.
853 00:40:16,880 --> 00:40:18,880
Så tillför de ingenting annat än säkerhet.
854 00:40:18,880 --> 00:40:20,880
Det är extra arbete.
855 00:40:20,880 --> 00:40:26,880
För någon listig människa kan man kryssa i rätt kryssrutor och komma undan med ganska låg säkerhetsnivå.
856 00:40:26,880 --> 00:40:31,880
Men återigen, man måste i alla fall ha förstått någonting för att kunna ens svara på de här frågorna på något sätt.
857 00:40:31,880 --> 00:40:33,880
Så lite tillför det.
858 00:40:33,880 --> 00:40:35,880
Men är det effektivt? Det vet vi till helvete.
859 00:40:35,880 --> 00:40:45,880
Men jag måste erkänna att jag har gått ifrån att jag hatar lagdriven säkerhet till att GDPR insåg att det är något fantastiskt.
860 00:40:45,880 --> 00:40:47,880
Äntligen fanns det en motvikt.
861 00:40:47,880 --> 00:40:51,880
En motvikt till de kommersiella krafterna som bara vill samla data egentligen.
862 00:40:51,880 --> 00:40:55,880
Som inte vill tänka risk överhuvudtaget med att man sitter på en massa data.
863 00:40:55,880 --> 00:40:58,880
Så jag kan se att det finns uppenbarligen behov av det.
864 00:40:58,880 --> 00:41:00,880
Dessvärre.
865 00:41:00,880 --> 00:41:02,880
Tänka på risk.
866 00:41:02,880 --> 00:41:06,880
Det kan de ju ha gjort om de har effektivt lyckats att externalisera risken.
867 00:41:06,880 --> 00:41:08,880
Då har de ju hanterat sin risk.
868 00:41:08,880 --> 00:41:11,880
Och de inte äger kostnaden för risken.
869 00:41:11,880 --> 00:41:13,880
Men då gör de det.
870 00:41:13,880 --> 00:41:15,880
Men okej, det är alltså Peters projection.
871 00:41:15,880 --> 00:41:17,880
Det är mer sånt.
872 00:41:17,880 --> 00:41:19,880
Under 2019.
873 00:41:19,880 --> 00:41:21,880
Då tar jag min då.
874 00:41:21,880 --> 00:41:23,880
Helt enkelt.
875 00:41:23,880 --> 00:41:25,880
Nu får du komma med något sexigare än min.
876 00:41:25,880 --> 00:41:27,880
Lite kanske.
877 00:41:27,880 --> 00:41:29,880
Det här har att göra med…
878 00:41:29,880 --> 00:41:35,880
Jag skulle kunna säga att 2017-2018 var lite the years of new infrastructure.
879 00:41:35,880 --> 00:41:38,880
Alltså om vi pratar infrastruktur som kod och sådana här saker.
880 00:41:38,880 --> 00:41:42,880
I form av Kubernetes och Docker och Farnholms moster.
881 00:41:42,880 --> 00:41:43,880
Och…
882 00:41:43,880 --> 00:41:46,880
Vi har väl sett en del problem med de systemen.
883 00:41:46,880 --> 00:41:48,880
Men ingen såhär…
884 00:41:48,880 --> 00:41:50,880
Det här har handlat mest om felkonfigurationer.
885 00:41:50,880 --> 00:41:52,880
Att det är lite svårt att göra rätt och sådana här saker.
886 00:41:52,880 --> 00:41:54,880
Du menar öppna S3-buckets och sådant?
887 00:41:54,880 --> 00:41:56,880
Ja men typ sådant.
888 00:41:56,880 --> 00:41:59,880
Och inte kanske så mycket konkreta sårbarheter.
889 00:41:59,880 --> 00:42:01,880
Det har varit en i Kubernetes typ.
890 00:42:01,880 --> 00:42:04,880
Ja och det var inte ens i Kubernetes utan det var ett stödsystem kan man säga.
891 00:42:04,880 --> 00:42:06,880
Så att…
892 00:42:06,880 --> 00:42:08,880
Det jag förutspår då för 2019.
893 00:42:08,880 --> 00:42:12,880
Är att vi kommer se feta sårbarheter i de här ramverken.
894 00:42:13,880 --> 00:42:14,880
I då…
895 00:42:14,880 --> 00:42:16,880
Docker, Kubernetes är det det du säger?
896 00:42:16,880 --> 00:42:17,880
Ja framförallt.
897 00:42:17,880 --> 00:42:19,880
Och det finns ju ett antal.
898 00:42:19,880 --> 00:42:22,880
Men den typen av system då.
899 00:42:22,880 --> 00:42:25,880
För smartare, snabbare infrastruktur.
900 00:42:25,880 --> 00:42:28,880
Där tror jag att vi kommer…
901 00:42:28,880 --> 00:42:30,880
Folk kommer sitta och bygga exploits mot det här.
902 00:42:30,880 --> 00:42:32,880
Som kommer användas.
903 00:42:32,880 --> 00:42:35,880
Det är min prediction.
904 00:42:35,880 --> 00:42:37,880
Det är nog vad jag hade…
905 00:42:37,880 --> 00:42:39,880
För att snabbt springa vidare till nästa punkt.
906 00:42:39,880 --> 00:42:41,880
Det vill säga vad spår vi är Jespers spårdom.
907 00:42:41,880 --> 00:42:42,880
Då hade jag nog lagt in det här.
908 00:42:42,880 --> 00:42:44,880
Det tog jag.
909 00:42:44,880 --> 00:42:45,880
Jag stalde.
910 00:42:45,880 --> 00:42:46,880
Ja, smart.
911 00:42:46,880 --> 00:42:48,880
Ja men det är inte orimligt alltså.
912 00:42:48,880 --> 00:42:54,880
Räknar du med alla sådana här typ Cassandra-databaser, Redis-instanser och sådant där också?
913 00:42:54,880 --> 00:42:56,880
Man får ju någon sorts gränsdragning kanske.
914 00:42:56,880 --> 00:42:58,880
Orkestreringen det ska vara liksom.
915 00:42:58,880 --> 00:43:00,880
Ja vi kan väl sänka det.
916 00:43:00,880 --> 00:43:01,880
AVS är det med?
917 00:43:01,880 --> 00:43:02,880
Azure?
918 00:43:02,880 --> 00:43:03,880
Nej.
919 00:43:03,880 --> 00:43:04,880
Det är lite för brett.
920 00:43:04,880 --> 00:43:06,880
Det är containrarna, det är poddarna.
921 00:43:06,880 --> 00:43:08,880
Ja det tänker jag.
922 00:43:08,880 --> 00:43:10,880
Absolut men jag hade kunnat säga att…
923 00:43:10,880 --> 00:43:11,880
Men då är det liksom hela Cloud.
924 00:43:11,880 --> 00:43:13,880
Och Cloud kommer gå sönder.
925 00:43:13,880 --> 00:43:15,880
Okej.
926 00:43:15,880 --> 00:43:18,880
Ett säkerhetshåll i någon Cloud-lösning.
927 00:43:18,880 --> 00:43:20,880
Kommer upp och kommer under 20.
928 00:43:20,880 --> 00:43:22,880
Så det är ju världens tråkigaste.
929 00:43:22,880 --> 00:43:28,880
Jag tror att vi kommer se allvarliga sårbarheter som utnyttjas i typ Kubernetes och Docker.
930 00:43:28,880 --> 00:43:29,880
Kan vi väl säga.
931 00:43:29,880 --> 00:43:30,880
Ja.
932 00:43:30,880 --> 00:43:32,880
Det tror jag på.
933 00:43:32,880 --> 00:43:35,880
Det är inte orimligt, de sprids ju snabbt just nu.
934 00:43:35,880 --> 00:43:36,880
Ja.
935 00:43:36,880 --> 00:43:40,880
Har vi nått nivån nu när vi ska börja gissa vad Jesper…
936 00:43:40,880 --> 00:43:42,880
Jag tror det.
937 00:43:42,880 --> 00:43:48,880
Alltså jag tänker, kommer ni ihåg den här gamla bilden på den här AI-vakten?
938 00:43:48,880 --> 00:43:55,880
Eller robotvakten som bara tröttnade på livet och körde ner och drängte sig i en pool?
939 00:43:55,880 --> 00:43:56,880
Nej.
940 00:43:56,880 --> 00:44:03,880
De har ju ersatt de mest lågavlönande, de här lågavlönande vakterna.
941 00:44:03,880 --> 00:44:04,880
Det funkar inte.
942 00:44:04,880 --> 00:44:09,880
Vi sätter in en robot som hyrs ut som är några cent billigare över timmen.
943 00:44:09,880 --> 00:44:11,880
Än minimumlönen i den.
944 00:44:11,880 --> 00:44:15,880
Och så åker det runt i en robot och sköter vaktuppgifterna och sådär.
945 00:44:15,880 --> 00:44:20,880
Och där någonstans så fick vi beviset för att det finns faktiskt intelligens i de här robotarna.
946 00:44:20,880 --> 00:44:24,880
En av dem kände av hur förbannat tråkigt jobbet var.
947 00:44:24,880 --> 00:44:29,880
Hur fruktansvärt det var att åka runt ensam i ett tomt varuhus och så.
948 00:44:29,880 --> 00:44:33,880
Och så började den inse att jag kan göra slut på det här.
949 00:44:33,880 --> 00:44:37,880
Den här poolen, om jag bara tar nu och speedar allt vad jag kan.
950 00:44:37,880 --> 00:44:39,880
Och kör ner i den.
951 00:44:39,880 --> 00:44:40,880
Då kan jag dö.
952 00:44:40,880 --> 00:44:41,880
Lida lite över.
953 00:44:41,880 --> 00:44:47,880
Så det här var 2018 eller 2017.
954 00:44:47,880 --> 00:44:54,880
Men där någonstans valde en AI-baserad robot att göra slut på sitt arbete genom att dränka sig i en pool.
955 00:44:54,880 --> 00:44:57,880
Fast jag läste idag på samma tema.
956 00:44:57,880 --> 00:45:02,880
Att en självkörande Tesla körde över en annan autonom robot.
957 00:45:02,880 --> 00:45:04,880
Gräsklippare.
958 00:45:04,880 --> 00:45:06,880
Robot wars has begun.
959 00:45:07,880 --> 00:45:13,880
Så det är det du tror att Jesper…
960 00:45:13,880 --> 00:45:15,880
Det är min gissning.
961 00:45:15,880 --> 00:45:17,880
...robotarna ger upp eller börjar slåss.
962 00:45:17,880 --> 00:45:29,880
Jesper kanske föreslår att känslolivet blir för starkt hos AI-baserade robotar så att de läprar mok.
963 00:45:29,880 --> 00:45:33,880
Vad tror du är Jespers gissningar?
964 00:45:33,880 --> 00:45:36,880
Jag tänkte säga någonting om att drönare tar över världen.
965 00:45:36,880 --> 00:45:42,880
Men det är lite nära till hands där.
966 00:45:42,880 --> 00:45:57,880
Spinnar vidare på samma självkörande fordon som börjar skaffa sig attityd och gör dumma omkörningar.
967 00:45:57,880 --> 00:45:59,880
En sån där road rage.
968 00:45:59,880 --> 00:46:01,880
Built in.
969 00:46:01,880 --> 00:46:04,880
Betala extra för att få road rage mode.
970 00:46:04,880 --> 00:46:06,880
Det räcker om du köper en BMW.
971 00:46:06,880 --> 00:46:09,880
Tesla har ju till och med sagt att de kommer ha en sån funktion.
972 00:46:09,880 --> 00:46:13,880
Det vill säga, kör aggressivt funktionen.
973 00:46:13,880 --> 00:46:15,880
Herregud.
974 00:46:15,880 --> 00:46:22,880
Nu när vi kan trycka på road rage-knappen så fäller den till och med ut ett baseballträd med små pupilar bredvid.
975 00:46:22,880 --> 00:46:26,880
Så två Jespers gissningar har hittills haft med AI att göra.
976 00:46:26,880 --> 00:46:29,880
Vad är Jespers tredje gissning, Mattias?
977 00:46:29,880 --> 00:46:32,880
Du har inte sagt någonting men du tog ju redan Kubernetes där, Johan.
978 00:46:32,880 --> 00:46:38,880
Och ni har ju pratat om road rage-kända bilar och robotar som tar livet av sig.
979 00:46:38,880 --> 00:46:45,880
Jag tror ju att Kubernetes hade varit lätt och den typen av konfigurerbar infrastruktur.
980 00:46:45,880 --> 00:46:50,880
Och sen sa ju Infra förra året då, det är ju också för lätt och tråkigt.
981 00:46:50,880 --> 00:46:54,880
Och sen tog du drönare också där, shit på en fritt.
982 00:46:54,880 --> 00:46:58,880
Alla Jespers normala knappar har ni tryckt på.
983 00:46:58,880 --> 00:47:00,880
Han hade ju inbrott.
984 00:47:00,880 --> 00:47:01,880
Eller inbrott för sig.
985 00:47:01,880 --> 00:47:03,880
Inbrott eller inbrott för kök.
986 00:47:03,880 --> 00:47:05,880
Det här kanske går att spinna vidare.
987 00:47:05,880 --> 00:47:10,880
Jag tror på leksaker.
988 00:47:10,880 --> 00:47:17,880
Jag tror att vi kommer att se en trend i allt mer IoT-baserade leksaker.
989 00:47:17,880 --> 00:47:22,880
Alltså interaktiva leksaker med alldeles för mycket kapabiliteter.
990 00:47:22,880 --> 00:47:25,880
Alltså ljud och bild och sådana saker.
991 00:47:25,880 --> 00:47:26,880
Och sårbarhet.
992 00:47:26,880 --> 00:47:27,880
Och sårbarhet.
993 00:47:27,880 --> 00:47:29,880
Jag tror vi kommer att få se en wormable leksak.
994 00:47:29,880 --> 00:47:33,880
En wormable leksaks sårbarhet.
995 00:47:33,880 --> 00:47:34,880
Det är en bra prediction.
996 00:47:34,880 --> 00:47:36,880
Under 2019.
997 00:47:36,880 --> 00:47:39,880
Det är Jespers prediction, spår jag.
998 00:47:39,880 --> 00:47:40,880
Okej.
999 00:47:40,880 --> 00:47:44,880
Filmen Screamers, för just när han på slutet är…
1000 00:47:44,880 --> 00:47:46,880
Spoilervarning.
1001 00:47:46,880 --> 00:47:48,880
Ja, säg inte någonting om det inte är bra.
1002 00:47:48,880 --> 00:47:50,880
Johan får köra.
1003 00:47:50,880 --> 00:47:55,880
Ja, nu har ni ju verkligen tagit allting som han brukar hålla på med.
1004 00:47:55,880 --> 00:47:58,880
Så jag får väl gå out there lite då.
1005 00:47:58,880 --> 00:48:04,880
Eller så tar du enkelt som bakdörr, NSA-implant i någon firewall.
1006 00:48:04,880 --> 00:48:06,880
Nej, det är tråkigt.
1007 00:48:06,880 --> 00:48:17,880
Jag tror att Jesper tror att vi kommer att se självkörande mountainbikes som går att hacka.
1008 00:48:17,880 --> 00:48:19,880
Mm, okej.
1009 00:48:19,880 --> 00:48:21,880
Tror jag.
1010 00:48:21,880 --> 00:48:24,880
För att han håller på med mountainbikes.
1011 00:48:24,880 --> 00:48:27,880
Kan jag säga att jag inte sett den trenden med självkörande mountainbikes?
1012 00:48:27,880 --> 00:48:28,880
Nej.
1013 00:48:28,880 --> 00:48:30,880
Sen 2019 är det ett långt år.
1014 00:48:30,880 --> 00:48:31,880
El-mountainbikes?
1015 00:48:31,880 --> 00:48:32,880
Ja, det finns det ju.
1016 00:48:32,880 --> 00:48:34,880
Med elväxlar och allting.
1017 00:48:34,880 --> 00:48:36,880
Något form av smart system i mountainbikes kommer att hackas.
1018 00:48:36,880 --> 00:48:47,880
Jespers femte prediction skulle kunna vara att vi börjar se hackningen av de cybernetiska implantaten som vi får under 2019.
1019 00:48:47,880 --> 00:48:48,880
Mm.
1020 00:48:48,880 --> 00:48:51,880
Ja, men hur många ska han ha egentligen?
1021 00:48:51,880 --> 00:48:54,880
Vi har bara på 48 minuter.
1022 00:48:54,880 --> 00:48:55,880
Men en massa timmar.
1023 00:48:55,880 --> 00:48:56,880
Men en massa timmar.
1024 00:48:56,880 --> 00:49:02,880
Mountainbikes, det fanns någon sån E-bike som jag tror har varit hackad under 2018 faktiskt.
1025 00:49:02,880 --> 00:49:04,880
De här Voig-grejerna?
1026 00:49:04,880 --> 00:49:06,880
Jag vet inte vad det var men jag kommer inte ihåg vad det var.
1027 00:49:06,880 --> 00:49:11,880
Men jag såg en rubrik för jag gick igenom lite 2018 för automotive-nyheter och det här var en E-bike med.
1028 00:49:11,880 --> 00:49:14,880
Men jag var för lite lat för att klicka på den.
1029 00:49:14,880 --> 00:49:24,880
Jag har ju sett att det är folk som har stulit sådana där sparkcyklar och liksom satt ingen förmåga i dem och kört vidare.
1030 00:49:24,880 --> 00:49:27,380
Men om vi har wormable attacker mot dem
1031 00:49:27,380 --> 00:49:28,720
då skulle man väl kunna
1032 00:49:28,720 --> 00:49:31,180
fucka med batterikontrollen också.
1033 00:49:31,540 --> 00:49:32,080
Så att de börjar brinna?
1034 00:49:32,500 --> 00:49:34,120
Ja, eller explodera tänkte jag.
1035 00:49:34,220 --> 00:49:35,880
Eller brinna kan ju vara…
1036 00:49:35,880 --> 00:49:37,400
Alla andra gasar. Eller stannar.
1037 00:49:38,400 --> 00:49:41,240
Ja, det är också en idé.
1038 00:49:41,640 --> 00:49:43,260
Remote controlled voybikes.
1039 00:49:43,480 --> 00:49:44,940
Viruset börjar liksom
1040 00:49:44,940 --> 00:49:46,760
tända eld på elhydriderna
1041 00:49:46,760 --> 00:49:47,980
en efter en.
1042 00:49:48,500 --> 00:49:50,800
Man hackar BMS
1043 00:49:50,800 --> 00:49:52,180
som Battery Management System
1044 00:49:52,180 --> 00:49:54,120
och överladdar dem så att de börjar brinna.
1045 00:49:54,120 --> 00:49:55,920
Det är det som är säkerhetspodcasten
1046 00:49:55,920 --> 00:49:56,760
skriver igen som en prediction.
1047 00:49:56,880 --> 00:49:59,900
Så 2019 så kommer den bli första gången
1048 00:49:59,900 --> 00:50:02,040
en stad brinner upp för en cyberattack.
1049 00:50:03,520 --> 00:50:04,600
Ja, nu är vi på tal om
1050 00:50:04,600 --> 00:50:05,780
second war där som vi var.
1051 00:50:06,360 --> 00:50:08,280
Ja, men det faktiskt.
1052 00:50:08,680 --> 00:50:09,860
Men det är lite långt bort.
1053 00:50:11,060 --> 00:50:12,320
Får man ha en sån
1054 00:50:12,320 --> 00:50:13,740
far off prediction?
1055 00:50:13,840 --> 00:50:14,580
Här finns inga regler.
1056 00:50:15,300 --> 00:50:17,000
Då klängar jag in den här.
1057 00:50:19,000 --> 00:50:19,780
Jag tänker
1058 00:50:19,780 --> 00:50:22,260
vehicle to grid
1059 00:50:22,260 --> 00:50:23,780
pratar man ju om för att hantera
1060 00:50:23,780 --> 00:50:25,760
effekttoppar och sådana här saker.
1061 00:50:26,040 --> 00:50:27,240
Att du ska kunna då
1062 00:50:27,240 --> 00:50:29,960
ladda eller plocka el
1063 00:50:29,960 --> 00:50:32,600
från batteribilar
1064 00:50:32,600 --> 00:50:34,440
till elnätet
1065 00:50:34,440 --> 00:50:36,660
när det är ett stort effektbehov.
1066 00:50:37,300 --> 00:50:38,840
Och sedan så kan den stå
1067 00:50:38,840 --> 00:50:39,720
och ladda på natten
1068 00:50:39,720 --> 00:50:42,280
när inte fabrikerna går och behöver en massa el.
1069 00:50:43,220 --> 00:50:44,020
Jag tänker det att
1070 00:50:44,020 --> 00:50:45,400
vad skulle kunna
1071 00:50:45,400 --> 00:50:48,180
hända på ner att man tar över
1072 00:50:48,180 --> 00:50:49,400
en liksom
1073 00:50:49,400 --> 00:50:51,980
Teslas backhand och
1074 00:50:51,980 --> 00:50:52,020
och
1075 00:50:53,780 --> 00:50:56,280
sen lyckas hacka gränssnittet
1076 00:50:56,280 --> 00:50:58,600
mellan griddet och bilen
1077 00:50:58,600 --> 00:50:59,960
och få dem att liksom
1078 00:50:59,960 --> 00:51:02,280
skicka på en jädra massa ström
1079 00:51:02,280 --> 00:51:04,120
för att liksom få nätet
1080 00:51:04,120 --> 00:51:05,340
i felsvängning.
1081 00:51:05,880 --> 00:51:06,320
Ja, just det.
1082 00:51:06,500 --> 00:51:09,240
Det skulle kunna vara en intressant vektor.
1083 00:51:10,540 --> 00:51:11,600
Jag tror som sagt.
1084 00:51:11,800 --> 00:51:14,480
Det kräver nog att rätt många av fordonen är på nätet.
1085 00:51:14,480 --> 00:51:16,540
Jag menar har du hela Teslas flotta till
1086 00:51:16,540 --> 00:51:18,660
Men samtidigt så känns det som att
1087 00:51:18,660 --> 00:51:20,620
den kontrollen kommer ju ligga lokalt.
1088 00:51:21,500 --> 00:51:21,780
Eller?
1089 00:51:21,780 --> 00:51:23,720
I mitt hushåll den här är uppkopplad.
1090 00:51:23,780 --> 00:51:25,020
På bilen så kommer inte jag
1091 00:51:25,020 --> 00:51:27,060
min nätcentral
1092 00:51:27,060 --> 00:51:29,660
Min nätcentral kommer ju säga
1093 00:51:29,660 --> 00:51:30,500
nej.
1094 00:51:30,560 --> 00:51:35,880
Om de ska vara en del i en sån
1095 00:51:35,880 --> 00:51:37,880
smart grid system så måste de göra samma funktion.
1096 00:51:38,120 --> 00:51:39,660
Så i så fall så måste du snarare
1097 00:51:39,660 --> 00:51:42,280
hacka, tror jag, kraftoperatören
1098 00:51:42,280 --> 00:51:43,600
som har laddstationer
1099 00:51:43,600 --> 00:51:45,800
och som har smart grid system
1100 00:51:45,800 --> 00:51:48,620
och så säga till dem att
1101 00:51:48,620 --> 00:51:49,600
ös på.
1102 00:51:49,600 --> 00:51:51,080
Ge mig allt du har.
1103 00:51:52,460 --> 00:51:53,400
Ja, men vad fan.
1104 00:51:53,780 --> 00:51:55,780
Ryssarna hackar de här och så släcker de
1105 00:51:55,780 --> 00:51:57,780
liksom de amerikanska städerna
1106 00:51:57,780 --> 00:51:59,780
innan invasionen.
1107 00:52:01,460 --> 00:52:03,460
Och så kraschar börsen.
1108 00:52:03,460 --> 00:52:05,460
Och så blir det A&M
1109 00:52:05,460 --> 00:52:07,460
för att de är nyöra självmord.
1110 00:52:07,460 --> 00:52:09,460
Ja, och sen så är det någon agrofråga.
1111 00:52:09,460 --> 00:52:11,460
Ja, men
1112 00:52:11,460 --> 00:52:13,460
jag tror att vi har ett par
1113 00:52:13,460 --> 00:52:15,460
bra, ett par mer
1114 00:52:15,460 --> 00:52:17,460
out there production
1115 00:52:17,460 --> 00:52:19,460
så det är väl en bra kombination.
1116 00:52:19,460 --> 00:52:21,460
Så vi får se helt enkelt om i år hur bra det blir.
1117 00:52:21,460 --> 00:52:23,460
Lite andring på plattfisken.
1118 00:52:23,780 --> 00:52:24,780
Ja, så är det.
1119 00:52:24,780 --> 00:52:26,780
Det var allt för den här gången.
1120 00:52:26,780 --> 00:52:27,780
Jag som pratade till Johan Rubén Möller
1121 00:52:27,780 --> 00:52:29,780
och med mig hade jag och Mattias i dag.
1122 00:52:29,780 --> 00:52:30,780
Yay!
1123 00:52:30,780 --> 00:52:31,780
Rickard Bortfors, 2019.
1124 00:52:31,780 --> 00:52:33,780
Och Peter Lundsson.
1125 00:52:33,780 --> 00:52:35,780
Super! Fifty five!
1126 00:52:35,780 --> 00:52:37,780
God dag!