dataset
stringclasses 1
value | file
stringlengths 7
51
| fun_name
stringlengths 2
45
| llvm_ir_function
stringlengths 61
121k
| label
stringclasses 2
values |
|---|---|---|---|---|
CompRealVul
|
vgacon_switch_6847
|
vgacon_switch
|
define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%1 = load i64, i64* %0
%2 = ptrtoint i64* %arg1 to i64
%3 = trunc i64 %1 to i32
%4 = add i64 %2, 4
%5 = inttoptr i64 %4 to i32*
%6 = load i32, i32* %5, align 4
%7 = add i64 %2, 8
%8 = inttoptr i64 %7 to i32*
%9 = load i32, i32* %8, align 4
store i32 %3, i32* @gv_0, align 4
%10 = load i32, i32* %5, align 4
store i32 %10, i32* @gv_1, align 4
%11 = load i32, i32* @gv_2, align 4
%12 = icmp eq i32 %11, 0
%13 = icmp eq i1 %12, false
br i1 %13, label LBL_5, label LBL_1
LBL_1:
%14 = load i32, i32* @gv_3, align 4
%15 = load i32, i32* @gv_4, align 4
%16 = mul i32 %9, %6
%17 = mul i32 %3, 8
%18 = add i64 %2, 32
%19 = inttoptr i64 %18 to i32*
%20 = load i32, i32* %19, align 4
%21 = load i32, i32* @gv_5, align 4
%22 = sub i32 %20, %21
%23 = xor i32 %21, %20
%24 = xor i32 %22, %20
%25 = and i32 %24, %23
%26 = icmp slt i32 %25, 0
%27 = icmp eq i32 %22, 0
%28 = icmp slt i32 %22, 0
%29 = icmp eq i1 %28, %26
%30 = icmp eq i1 %27, false
%31 = icmp eq i1 %29, %30
%32 = select i1 %31, i32 %21, i32 %20
%33 = add i64 %2, 24
%34 = inttoptr i64 %33 to i64*
%35 = load i64, i64* %34, align 8
%36 = add i64 %2, 16
%37 = inttoptr i64 %36 to i64*
%38 = load i64, i64* %37, align 8
%39 = call i64 @FUNC(i64 %38, i64 %35, i32 %32)
%40 = load i32, i32* @gv_6, align 4
%41 = icmp eq i32 %17, %40
%42 = load i32, i32* @gv_7, align 4
%43 = icmp eq i32 %16, %42
%or.cond = icmp eq i1 %41, %43
br i1 %or.cond, label LBL_5, label LBL_2
LBL_2:
%44 = load i32, i32* @gv_0, align 4
%45 = urem i32 %44, 2
%46 = icmp eq i32 %45, 0
%47 = icmp eq i1 %46, false
%48 = load i32, i32* @gv_8, align 4
%49 = icmp ult i32 %48, %44
%or.cond3 = or i1 %49, %47
br i1 %or.cond3, label LBL_5, label LBL_3
LBL_3:
%50 = mul i32 %15, %14
%51 = ashr i32 %50, 31
%52 = zext i32 %50 to i64
%53 = zext i32 %51 to i64
%54 = mul i64 %53, 4294967296
%55 = or i64 %54, %52
%56 = zext i32 %9 to i64
%57 = sdiv i64 %55, %56
%58 = load i32, i32* @gv_1, align 4
%59 = zext i32 %58 to i64
%sext = mul i64 %57, 4294967296
%60 = ashr exact i64 %sext, 32
%61 = icmp slt i64 %60, %59
br i1 %61, label LBL_5, label LBL_4
LBL_4:
%62 = load i32, i32* %5, align 4
%63 = and i64 %1, 4294967295
%64 = call i64 @FUNC(i64 %2, i64 %63, i32 %62)
br label LBL_5
LBL_5:
ret i64 0
uselistorder i32 %44, { 1, 0 }
uselistorder i32 %22, { 1, 2, 0 }
uselistorder i32 %21, { 1, 0, 2 }
uselistorder i32 %20, { 2, 0, 1, 3 }
uselistorder i32 %9, { 1, 0 }
uselistorder i64 %2, { 0, 2, 3, 1, 4, 5 }
uselistorder i64 %1, { 1, 0 }
uselistorder i32* @gv_1, { 1, 0 }
uselistorder i32 0, { 9, 10, 11, 12, 13, 0, 1, 2, 3, 4, 5, 6, 7, 8 }
uselistorder i32* @gv_0, { 1, 0 }
uselistorder label LBL_5, { 1, 2, 3, 0, 4 }
}
|
0
|
CompRealVul
|
dec_modu_14625
|
dec_modu
|
define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%1 = load i64, i64* %0
%2 = ptrtoint i64* %arg1 to i64
%3 = add i64 %2, 4
%4 = inttoptr i64 %3 to i32*
%5 = load i32, i32* %4, align 4
%6 = trunc i64 %1 to i32
%7 = add i64 %2, 8
%8 = inttoptr i64 %7 to i32*
%9 = load i32, i32* %8, align 4
%10 = zext i32 %9 to i64
%11 = call i64 @FUNC(i8* getelementptr inbounds ([19 x i8], [19 x i8]* @gv_0, i64 0, i64 0), i64 %10, i32 %6, i32 %5)
%12 = add i64 %2, 16
%13 = inttoptr i64 %12 to i64*
%14 = load i64, i64* %13, align 8
%15 = inttoptr i64 %14 to i32*
%16 = load i32, i32* %15, align 4
%17 = urem i32 %16, 2
%18 = icmp eq i32 %17, 0
%19 = icmp eq i1 %18, false
br i1 %19, label LBL_2, label LBL_1
LBL_1:
%20 = call i64 @FUNC(i64 %14, i8* getelementptr inbounds ([35 x i8], [35 x i8]* @gv_1, i64 0, i64 0))
unreachable
LBL_2:
%21 = call i64 @FUNC()
%22 = load i32, i32* %4, align 4
%23 = sext i32 %22 to i64
%24 = mul i64 %23, 4
%25 = add i64 %24, ptrtoint (i32** @gv_2 to i64)
%26 = inttoptr i64 %25 to i32*
%27 = load i32, i32* %26, align 4
%28 = and i64 %21, 4294967295
%29 = zext i32 %27 to i64
%30 = call i64 @FUNC(i64 1, i64 %29, i64 0, i64 %28)
%31 = add i64 %2, 12
%32 = inttoptr i64 %31 to i32*
%33 = load i32, i32* %32, align 4
%34 = load i32, i32* @gv_3, align 4
%35 = zext i32 %33 to i64
%36 = zext i32 %34 to i64
%37 = call i64 @FUNC(i64 %36, i64 %35)
%38 = call i64 @FUNC(i64 %2, i64 1)
%39 = call i64 @FUNC(i64 %28)
%40 = load i32, i32* %4, align 4
%41 = sext i32 %40 to i64
%42 = mul i64 %41, 4
%43 = add i64 %42, ptrtoint (i32** @gv_2 to i64)
%44 = inttoptr i64 %43 to i32*
%45 = load i32, i32* %44, align 4
%sext = mul i64 %1, 4294967296
%46 = ashr exact i64 %sext, 30
%47 = add i64 %46, ptrtoint (i32** @gv_2 to i64)
%48 = inttoptr i64 %47 to i32*
%49 = load i32, i32* %48, align 4
%50 = load i32, i32* %8, align 4
%51 = sext i32 %50 to i64
%52 = mul i64 %51, 4
%53 = add i64 %52, ptrtoint (i32** @gv_2 to i64)
%54 = inttoptr i64 %53 to i32*
%55 = load i32, i32* %54, align 4
%56 = zext i32 %49 to i64
%57 = zext i32 %55 to i64
%58 = call i64 @FUNC(i64 %57, i64 %56, i32 %45)
ret i64 %58
uselistorder i64 %1, { 1, 0 }
}
|
1
|
CompRealVul
|
stbi__jpeg_decode_block_prog_dc_13002
|
stbi__jpeg_decode_block_prog_dc
|
define i64 @FUNC(i32* %arg1, i64* %arg2, i64* %arg3, i32 %arg4) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%rax.0.reg2mem = alloca i64
%storemerge2.reg2mem = alloca i32
%1 = load i64, i64* %0
%2 = load i64, i64* %0
%3 = trunc i64 %1 to i32
%4 = icmp eq i32 %3, 0
br i1 %4, label LBL_2, label LBL_1
LBL_1:
%5 = call i64 @FUNC(i8* getelementptr inbounds ([22 x i8], [22 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([13 x i8], [13 x i8]* @gv_1, i64 0, i64 0))
store i64 %5, i64* %rax.0.reg2mem
br label LBL_12
LBL_2:
%6 = ptrtoint i32* %arg1 to i64
%7 = add i64 %6, 4
%8 = inttoptr i64 %7 to i32*
%9 = load i32, i32* %8, align 4
%10 = icmp sgt i32 %9, 15
br i1 %10, label LBL_4, label LBL_3
LBL_3:
%11 = call i64 @FUNC(i64 %6)
br label LBL_4
LBL_4:
%12 = add i64 %6, 24
%13 = inttoptr i64 %12 to i32*
%14 = load i32, i32* %13, align 4
%15 = icmp eq i32 %14, 0
%16 = icmp eq i1 %15, false
br i1 %16, label LBL_10, label LBL_5
LBL_5:
%17 = ptrtoint i64* %arg3 to i64
%18 = call i64* @memset(i64* %arg2, i32 0, i32 128)
%19 = call i64 @FUNC(i64 %6, i64 %17)
%20 = trunc i64 %19 to i32
%21 = icmp eq i32 %20, -1
%22 = icmp eq i1 %21, false
br i1 %22, label LBL_7, label LBL_6
LBL_6:
%23 = call i64 @FUNC(i8* getelementptr inbounds ([22 x i8], [22 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([13 x i8], [13 x i8]* @gv_1, i64 0, i64 0))
store i64 %23, i64* %rax.0.reg2mem
br label LBL_12
LBL_7:
%24 = icmp eq i32 %20, 0
store i32 0, i32* %storemerge2.reg2mem
br i1 %24, label LBL_9, label LBL_8
LBL_8:
%25 = and i64 %19, 4294967295
%26 = call i64 @FUNC(i64 %6, i64 %25)
%phitmp = trunc i64 %26 to i32
store i32 %phitmp, i32* %storemerge2.reg2mem
br label LBL_9
LBL_9:
%storemerge2.reload = load i32, i32* %storemerge2.reg2mem
%27 = sext i32 %arg4 to i64
%28 = mul i64 %27, 4
%29 = add i64 %6, 8
%30 = add i64 %29, %28
%31 = inttoptr i64 %30 to i32*
%32 = load i32, i32* %31, align 4
%33 = add i32 %32, %storemerge2.reload
store i32 %33, i32* %31, align 4
%34 = add i64 %6, 28
%35 = inttoptr i64 %34 to i32*
%36 = load i32, i32* %35, align 4
%37 = urem i32 %36, 32
%38 = shl i32 %33, %37
%39 = trunc i32 %38 to i16
%40 = bitcast i64* %arg2 to i16*
store i16 %39, i16* %40, align 2
store i64 1, i64* %rax.0.reg2mem
br label LBL_12
LBL_10:
%41 = call i64 @FUNC(i64 %6)
%42 = trunc i64 %41 to i32
%43 = icmp eq i32 %42, 0
store i64 1, i64* %rax.0.reg2mem
br i1 %43, label LBL_12, label LBL_11
LBL_11:
%44 = trunc i64 %2 to i16
%45 = add i64 %6, 28
%46 = inttoptr i64 %45 to i32*
%47 = load i32, i32* %46, align 4
%48 = urem i32 %47, 32
%49 = shl i32 1, %48
%50 = trunc i32 %49 to i16
%51 = add i16 %50, %44
%52 = bitcast i64* %arg2 to i16*
store i16 %51, i16* %52, align 2
store i64 1, i64* %rax.0.reg2mem
br label LBL_12
LBL_12:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %6, { 4, 6, 1, 2, 0, 3, 5, 7, 8 }
uselistorder i32* %storemerge2.reg2mem, { 0, 2, 1 }
uselistorder i64* %rax.0.reg2mem, { 0, 3, 2, 1, 5, 4 }
uselistorder i64* %0, { 1, 0 }
uselistorder i64 1, { 2, 1, 0 }
uselistorder i64 (i8*, i8*)* @stbi__err, { 1, 0 }
uselistorder label LBL_12, { 2, 1, 0, 3, 4 }
uselistorder label LBL_9, { 1, 0 }
}
|
1
|
CompRealVul
|
cache_resize_14920
|
cache_resize
|
define i64 @FUNC(i64 %arg1, i64 %arg2) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%rdi.0.reg2mem = alloca i64
%rdi.11.reg2mem = alloca i64
%storemerge2.reg2mem = alloca i64
%0 = and i64 %arg1, 4294967295
%1 = call i64 @FUNC(i64 %0)
%2 = icmp eq i64 %0, 0
%3 = icmp eq i1 %2, false
store i64 -1, i64* %rax.0.reg2mem
br i1 %3, label LBL_1, label LBL_13
LBL_1:
%4 = call i64 @FUNC(i64 %arg2)
%5 = add i64 %arg1, 8
%6 = inttoptr i64 %5 to i64*
%7 = load i64, i64* %6, align 8
%8 = icmp eq i64 %4, %7
%9 = icmp eq i1 %8, false
store i64 %7, i64* %rax.0.reg2mem
br i1 %9, label LBL_2, label LBL_13
LBL_2:
%10 = add i64 %arg1, 24
%11 = inttoptr i64 %10 to i64*
%12 = load i64, i64* %11, align 8
%13 = call i64 @FUNC(i64 %arg2, i64 %12)
%14 = icmp eq i64 %13, 0
%15 = icmp eq i1 %14, false
br i1 %15, label LBL_3, label LBL_4
LBL_3:
%16 = load i64, i64* %6, align 8
%17 = icmp sgt i64 %16, 0
store i64 0, i64* %storemerge2.reg2mem
store i64 %arg2, i64* %rdi.11.reg2mem
br i1 %17, label LBL_5, label LBL_12
LBL_4:
%18 = call i64 @FUNC(i8* getelementptr inbounds ([26 x i8], [26 x i8]* @gv_0, i64 0, i64 0))
store i64 -1, i64* %rax.0.reg2mem
br label LBL_13
LBL_5:
%rdi.11.reload = load i64, i64* %rdi.11.reg2mem
%storemerge2.reload = load i64, i64* %storemerge2.reg2mem
%19 = mul i64 %storemerge2.reload, 24
%20 = add i64 %19, %rdi.11.reload
%21 = inttoptr i64 %20 to i64*
%22 = load i64, i64* %21, align 8
%23 = icmp eq i64 %22, -1
store i64 %rdi.11.reload, i64* %rdi.0.reg2mem
br i1 %23, label LBL_11, label LBL_6
LBL_6:
%24 = call i64 @FUNC(i64 %13, i64 %22)
%25 = add i64 %24, 8
%26 = inttoptr i64 %25 to i64*
%27 = load i64, i64* %26, align 8
%28 = icmp eq i64 %27, 0
br i1 %28, label LBL_10, label LBL_7
LBL_7:
%29 = add i64 %24, 16
%30 = inttoptr i64 %29 to i64*
%31 = load i64, i64* %30, align 8
%32 = add i64 %20, 16
%33 = inttoptr i64 %32 to i64*
%34 = load i64, i64* %33, align 8
%35 = icmp slt i64 %31, %34
br i1 %35, label LBL_9, label LBL_8
LBL_8:
%36 = add i64 %20, 8
%37 = inttoptr i64 %36 to i64*
%38 = load i64, i64* %37, align 8
%39 = call i64 @FUNC(i64 %38)
store i64 %38, i64* %rdi.0.reg2mem
br label LBL_11
LBL_9:
%40 = call i64 @FUNC(i64 %27)
%41 = add i64 %20, 8
%42 = inttoptr i64 %41 to i64*
%43 = load i64, i64* %42, align 8
store i64 %43, i64* %26, align 8
%44 = load i64, i64* %33, align 8
store i64 %44, i64* %30, align 8
%45 = load i64, i64* %21, align 8
%46 = inttoptr i64 %24 to i64*
store i64 %45, i64* %46, align 8
store i64 %27, i64* %rdi.0.reg2mem
br label LBL_11
LBL_10:
%47 = add i64 %20, 8
%48 = inttoptr i64 %47 to i64*
%49 = load i64, i64* %48, align 8
%50 = load i64, i64* %21, align 8
%51 = call i64 @FUNC(i64 %13, i64 %50, i64 %49)
store i64 %13, i64* %rdi.0.reg2mem
br label LBL_11
LBL_11:
%rdi.0.reload = load i64, i64* %rdi.0.reg2mem
%52 = add nuw nsw i64 %storemerge2.reload, 1
%53 = load i64, i64* %6, align 8
%54 = icmp slt i64 %52, %53
store i64 %52, i64* %storemerge2.reg2mem
store i64 %rdi.0.reload, i64* %rdi.11.reg2mem
br i1 %54, label LBL_5, label LBL_12
LBL_12:
%55 = inttoptr i64 %13 to i64*
%56 = load i64, i64* %55, align 8
%57 = inttoptr i64 %arg1 to i64*
store i64 %56, i64* %57, align 8
%58 = add i64 %13, 8
%59 = inttoptr i64 %58 to i64*
%60 = load i64, i64* %59, align 8
store i64 %60, i64* %6, align 8
%61 = add i64 %13, 16
%62 = inttoptr i64 %61 to i64*
%63 = load i64, i64* %62, align 8
%64 = add i64 %arg1, 16
%65 = inttoptr i64 %64 to i64*
store i64 %63, i64* %65, align 8
%66 = call i64 @FUNC(i64 %13)
%67 = load i64, i64* %6, align 8
store i64 %67, i64* %rax.0.reg2mem
br label LBL_13
LBL_13:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64* %21, { 1, 0, 2 }
uselistorder i64 %20, { 3, 0, 2, 1, 4 }
uselistorder i64 %13, { 1, 2, 3, 4, 0, 5, 6, 7 }
uselistorder i64* %6, { 1, 2, 3, 0, 4 }
uselistorder i64 %0, { 1, 0 }
uselistorder i64* %storemerge2.reg2mem, { 2, 0, 1 }
uselistorder i64* %rdi.11.reg2mem, { 2, 0, 1 }
uselistorder i64* %rdi.0.reg2mem, { 0, 3, 2, 1, 4 }
uselistorder i64* %rax.0.reg2mem, { 0, 4, 3, 1, 2 }
uselistorder i64 1, { 1, 2, 3, 4, 0 }
uselistorder i64 16, { 2, 3, 0, 1, 4, 5, 6 }
uselistorder i64 24, { 0, 3, 1, 2, 4 }
uselistorder i64 -1, { 2, 1, 0, 3 }
uselistorder i32 1, { 4, 3, 2, 1, 10, 11, 0, 6, 5, 8, 7, 9 }
uselistorder i64 %arg1, { 0, 1, 3, 2, 4 }
uselistorder label LBL_13, { 2, 3, 0, 1 }
uselistorder label LBL_5, { 1, 0 }
}
|
1
|
CompRealVul
|
network_init_16142
|
network_init
|
define i64 @FUNC() local_unnamed_addr {
LBL_0:
%.lcssa.reg2mem = alloca i64
%sv_0.0.reg2mem = alloca i8*
%storemerge2.reg2mem = alloca i32
%.reg2mem = alloca i64
%0 = load i32, i32* inttoptr (i64 4210724 to i32*), align 4
%1 = icmp eq i32 %0, 0
store i64 0, i64* %.reg2mem
store i32 0, i32* %storemerge2.reg2mem
store i64 0, i64* %.lcssa.reg2mem
br i1 %1, label LBL_6, label LBL_1
LBL_1:
%storemerge2.reload = load i32, i32* %storemerge2.reg2mem
%.reload = load i64, i64* %.reg2mem
%2 = mul i64 %.reload, 8
%3 = add i64 %2, ptrtoint (i64* @gv_0 to i64)
%4 = icmp eq i32 %storemerge2.reload, 0
%5 = icmp eq i1 %4, false
store i8* null, i8** %sv_0.0.reg2mem
br i1 %5, label LBL_5, label LBL_2
LBL_2:
%6 = inttoptr i64 %3 to i64*
%7 = load i64, i64* %6, align 8
%8 = icmp eq i64 %7, 0
br i1 %8, label LBL_4, label LBL_3
LBL_3:
%9 = inttoptr i64 %7 to i8*
%10 = call i32 @strcmp(i8* %9, i8* getelementptr inbounds ([6 x i8], [6 x i8]* @gv_1, i64 0, i64 0))
%11 = icmp eq i32 %10, 0
%12 = icmp eq i1 %11, false
store i8* null, i8** %sv_0.0.reg2mem
br i1 %12, label LBL_5, label LBL_4
LBL_4:
store i8* getelementptr inbounds ([3 x i8], [3 x i8]* @gv_2, i64 0, i64 0), i8** %sv_0.0.reg2mem
br label LBL_5
LBL_5:
%sv_0.0.reload = load i8*, i8** %sv_0.0.reg2mem
%13 = ptrtoint i8* %sv_0.0.reload to i64
%14 = call i64 @FUNC(i64 %3, i8* getelementptr inbounds ([6 x i8], [6 x i8]* @gv_1, i64 0, i64 0), i64 %13)
%15 = add i32 %storemerge2.reload, 1
%16 = load i32, i32* inttoptr (i64 4210724 to i32*), align 4
%17 = zext i32 %16 to i64
%18 = sext i32 %15 to i64
%19 = icmp slt i64 %18, %17
store i64 %18, i64* %.reg2mem
store i32 %15, i32* %storemerge2.reg2mem
store i64 %17, i64* %.lcssa.reg2mem
br i1 %19, label LBL_1, label LBL_6
LBL_6:
%.lcssa.reload = load i64, i64* %.lcssa.reg2mem
ret i64 %.lcssa.reload
uselistorder i64 %3, { 1, 0 }
uselistorder i64* %.reg2mem, { 2, 0, 1 }
uselistorder i32* %storemerge2.reg2mem, { 2, 0, 1 }
uselistorder i8** %sv_0.0.reg2mem, { 0, 2, 1, 3 }
uselistorder i32 0, { 2, 3, 0, 1 }
uselistorder i32* inttoptr (i64 4210724 to i32*), { 1, 0 }
uselistorder i32 1, { 5, 4, 3, 2, 1, 0 }
uselistorder label LBL_1, { 1, 0 }
}
|
1
|
CompRealVul
|
parseCertFields_5362
|
parseCertFields
|
define i64 @FUNC(i64* %arg1, i64 %arg2, i64 %arg3, i64* %arg4) local_unnamed_addr {
LBL_0:
%sv_0.1.reg2mem = alloca i64
%.pre-phi.reg2mem = alloca i64
%sv_0.0.reg2mem = alloca i64
%sv_1.0.reg2mem = alloca i64
%0 = ptrtoint i64* %arg4 to i64
%1 = ptrtoint i64* %arg1 to i64
%sv_2 = alloca i64, align 8
store i64 %0, i64* %sv_1.0.reg2mem
store i64 %0, i64* %sv_0.0.reg2mem
br label LBL_1
LBL_1:
%sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem
%sv_1.0.reload = load i64, i64* %sv_1.0.reg2mem
%2 = inttoptr i64 %sv_1.0.reload to i8*
%3 = load i8, i8* %2, align 1
%4 = icmp ne i8 %3, 47
%5 = icmp eq i8 %3, 0
%6 = icmp eq i1 %5, false
%or.cond = icmp eq i1 %4, %6
br i1 %or.cond, label LBL_1.LBL_4_crit_edge, label LBL_3
LBL_2:
%.pre = add i64 %sv_1.0.reload, 1
store i64 %.pre, i64* %.pre-phi.reg2mem
store i64 %sv_0.0.reload, i64* %sv_0.1.reg2mem
br label LBL_4
LBL_3:
store i8 0, i8* %2, align 1
%7 = call i64 @FUNC(i64 %sv_0.0.reload, i64* nonnull @gv_0, i64* nonnull %sv_2)
%8 = call i64 @FUNC(i64 %7, i8* getelementptr inbounds ([13 x i8], [13 x i8]* @gv_1, i64 0, i64 0))
%9 = trunc i64 %8 to i32
%10 = icmp eq i32 %9, 0
%11 = load i64, i64* %sv_2, align 8
%12 = select i1 %10, i64 %7, i64 ptrtoint ([6 x i8]* @gv_2 to i64)
%13 = call i64 @FUNC(i64 %1, i8* getelementptr inbounds ([11 x i8], [11 x i8]* @gv_3, i64 0, i64 0), i64 %arg2, i64 %arg3, i64 %12, i64 %11)
%14 = add i64 %sv_1.0.reload, 1
store i8 %3, i8* %2, align 1
store i64 %14, i64* %.pre-phi.reg2mem
store i64 %14, i64* %sv_0.1.reg2mem
br label LBL_4
LBL_4:
%sv_0.1.reload = load i64, i64* %sv_0.1.reg2mem
%.pre-phi.reload = load i64, i64* %.pre-phi.reg2mem
store i64 %.pre-phi.reload, i64* %sv_1.0.reg2mem
store i64 %sv_0.1.reload, i64* %sv_0.0.reg2mem
br i1 %6, label LBL_1, label LBL_5
LBL_5:
%15 = zext i8 %3 to i64
ret i64 %15
uselistorder i1 %6, { 1, 0 }
uselistorder i8 %3, { 0, 2, 1, 3 }
uselistorder i64 %sv_1.0.reload, { 1, 2, 0 }
uselistorder i64 %sv_0.0.reload, { 1, 0 }
uselistorder i64* %sv_2, { 1, 0 }
uselistorder i64* %sv_1.0.reg2mem, { 1, 0, 2 }
uselistorder i64* %sv_0.0.reg2mem, { 1, 0, 2 }
uselistorder i32 0, { 1, 2, 0 }
uselistorder i64 1, { 1, 0 }
uselistorder i8 0, { 1, 0 }
uselistorder label LBL_4, { 1, 0 }
}
|
0
|
CompRealVul
|
av_reallocp_array_2459
|
av_reallocp_array
|
define i64 @FUNC(i64* %arg1, i64 %arg2, i64 %arg3) local_unnamed_addr {
LBL_0:
%0 = ptrtoint i64* %arg1 to i64
%1 = call i64 @FUNC(i64 %0, i64 %arg2, i64 %arg3)
store i64 %1, i64* %arg1, align 8
%2 = icmp eq i64* %arg1, null
%3 = icmp eq i1 %2, false
%4 = icmp eq i64 %arg2, 0
%or.cond = or i1 %3, %4
%5 = icmp eq i64 %arg3, 0
%or.cond3 = or i1 %or.cond, %5
%storemerge = select i1 %or.cond3, i64 0, i64 4294967284
ret i64 %storemerge
}
|
0
|
CompRealVul
|
avfilter_open_1766
|
avfilter_open
|
define i64 @FUNC(i64* %arg1, i8* %arg2) local_unnamed_addr {
LBL_0:
%storemerge.reg2mem = alloca i64
%storemerge2.reg2mem = alloca i64
%rdi.0.reg2mem = alloca i64
%0 = icmp eq i64* %arg1, null
%1 = icmp eq i1 %0, false
store i64 0, i64* %storemerge.reg2mem
br i1 %1, label LBL_1, label LBL_4
LBL_1:
%2 = ptrtoint i64* %arg1 to i64
%3 = call i64 @FUNC(i64 80)
%4 = call i64 @FUNC(i64 8)
%5 = inttoptr i64 %3 to i64*
store i64 %4, i64* %5, align 8
%6 = load [15 x i8]*, [15 x i8]** @gv_0, align 8
%7 = ptrtoint [15 x i8]* %6 to i64
%8 = inttoptr i64 %4 to i64*
store i64 %7, i64* %8, align 8
%9 = add i64 %3, 8
%10 = inttoptr i64 %9 to i64*
store i64 %2, i64* %10, align 8
%11 = icmp eq i8* %arg2, null
store i64 8, i64* %rdi.0.reg2mem
store i64 0, i64* %storemerge2.reg2mem
br i1 %11, label LBL_3, label LBL_2
LBL_2:
%12 = ptrtoint i8* %arg2 to i64
%13 = call i64 @FUNC(i64 %12)
store i64 %12, i64* %rdi.0.reg2mem
store i64 %13, i64* %storemerge2.reg2mem
br label LBL_3
LBL_3:
%storemerge2.reload = load i64, i64* %storemerge2.reg2mem
%rdi.0.reload = load i64, i64* %rdi.0.reg2mem
%14 = add i64 %3, 16
%15 = inttoptr i64 %14 to i64*
store i64 %storemerge2.reload, i64* %15, align 8
%16 = call i64 @FUNC(i64 %rdi.0.reload)
%17 = add i64 %3, 24
%18 = inttoptr i64 %17 to i64*
store i64 %16, i64* %18, align 8
%19 = add i64 %2, 8
%20 = inttoptr i64 %19 to i64*
%21 = load i64, i64* %20, align 8
%22 = call i64 @FUNC(i64 %21)
%23 = trunc i64 %22 to i32
%24 = add i64 %3, 32
%25 = inttoptr i64 %24 to i32*
store i32 %23, i32* %25, align 4
%26 = call i64 @FUNC(i64 0)
%27 = add i64 %3, 40
%28 = inttoptr i64 %27 to i64*
store i64 %26, i64* %28, align 8
%29 = load i32, i32* %25, align 4
%30 = sext i32 %29 to i64
%31 = mul i64 %30, 8
%32 = call i64 @FUNC(i64 %31)
%33 = add i64 %3, 48
%34 = inttoptr i64 %33 to i64*
store i64 %32, i64* %34, align 8
%35 = add i64 %2, 16
%36 = inttoptr i64 %35 to i64*
%37 = load i64, i64* %36, align 8
%38 = call i64 @FUNC(i64 %37)
%39 = trunc i64 %38 to i32
%40 = add i64 %3, 56
%41 = inttoptr i64 %40 to i32*
store i32 %39, i32* %41, align 4
%42 = call i64 @FUNC(i64 0)
%43 = add i64 %3, 64
%44 = inttoptr i64 %43 to i64*
store i64 %42, i64* %44, align 8
%45 = load i32, i32* %41, align 4
%46 = sext i32 %45 to i64
%47 = mul i64 %46, 8
%48 = call i64 @FUNC(i64 %47)
%49 = add i64 %3, 72
%50 = inttoptr i64 %49 to i64*
store i64 %48, i64* %50, align 8
store i64 %3, i64* %storemerge.reg2mem
br label LBL_4
LBL_4:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
ret i64 %storemerge.reload
uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 }
uselistorder i64 (i64)* @pad_count, { 1, 0 }
uselistorder i64 (i64)* @av_mallocz, { 3, 2, 1, 0 }
uselistorder i64 8, { 1, 2, 4, 0, 5, 3 }
uselistorder i64 (i64)* @av_malloc, { 3, 2, 1, 0 }
uselistorder i8* %arg2, { 1, 0 }
uselistorder i64* %arg1, { 1, 0 }
uselistorder label LBL_4, { 1, 0 }
uselistorder label LBL_3, { 1, 0 }
}
|
0
|
CompRealVul
|
grlib_irqmp_writel_950
|
grlib_irqmp_writel
|
define i64 @FUNC(i64* %arg1, i64 %arg2, i64 %arg3) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%rdi.3.reg2mem = alloca i64
%rdi.2.reg2mem = alloca i64
%rdi.017.reg2mem = alloca i64
%0 = ptrtoint i64* %arg1 to i64
%1 = icmp eq i64* %arg1, null
%2 = icmp eq i1 %1, false
store i64 %0, i64* %rdi.017.reg2mem
br i1 %2, label LBL_2, label LBL_1
LBL_1:
call void @__assert_fail(i8* getelementptr inbounds ([14 x i8], [14 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([52 x i8], [52 x i8]* @gv_1, i64 0, i64 0), i32 43, i8* getelementptr inbounds ([19 x i8], [19 x i8]* @gv_2, i64 0, i64 0))
store i64 ptrtoint ([14 x i8]* @gv_0 to i64), i64* %rdi.017.reg2mem
br label LBL_2
LBL_2:
%sext = mul i64 %arg3, 4294967296
%3 = ashr exact i64 %sext, 32
%rdi.017.reload = load i64, i64* %rdi.017.reg2mem
%4 = urem i64 %arg2, 256
store i64 %4, i64* @0, align 8
%5 = mul i64 %4, 8
%6 = add i64 %5, ptrtoint (i64* @gv_3 to i64)
%7 = inttoptr i64 %6 to i64*
%8 = load i64, i64* %7, align 8
%9 = udiv i64 %4, 4
%10 = mul i64 %arg2, 4611686018427387904
%11 = or i64 %9, %10
store i64 %8, i64* %rax.0.reg2mem
store i64 %8, i64* %rax.0.reg2mem
switch i64 %11, label LBL_7 [
i64 0, label LBL_3
i64 1, label LBL_18
i64 2, label LBL_4
i64 3, label LBL_5
i64 4, label LBL_18
i64 5, label LBL_6
]
LBL_3:
%12 = trunc i64 %3 to i32
%13 = and i32 %12, 131070
%14 = inttoptr i64 %rdi.017.reload to i32*
store i32 %13, i32* %14, align 4
store i64 %rdi.017.reload, i64* %rax.0.reg2mem
br label LBL_18
LBL_4:
%15 = trunc i64 %3 to i32
%16 = and i32 %15, 65534
%17 = add i64 %rdi.017.reload, 8
%18 = inttoptr i64 %17 to i32*
store i32 %16, i32* %18, align 4
%19 = call i64 @FUNC(i64 %rdi.017.reload)
store i64 %19, i64* %rax.0.reg2mem
br label LBL_18
LBL_5:
%20 = trunc i64 %3 to i32
%21 = and i32 %20, -2
%22 = add i64 %rdi.017.reload, 4
%23 = inttoptr i64 %22 to i32*
%24 = load i32, i32* %23, align 4
%25 = sub i32 0, %21
%26 = sub i32 %25, 1
%27 = and i32 %24, %26
store i32 %27, i32* %23, align 4
store i64 %rdi.017.reload, i64* %rax.0.reg2mem
br label LBL_18
LBL_6:
%28 = trunc i64 %3 to i32
%29 = and i32 %28, 65534
%30 = add i64 %rdi.017.reload, 24
%31 = inttoptr i64 %30 to i32*
store i32 %29, i32* %31, align 4
store i64 %rdi.017.reload, i64* %rax.0.reg2mem
br label LBL_18
LBL_7:
%32 = trunc i64 %arg2 to i8
%trunc = and i8 %32, -4
switch i8 %trunc, label LBL_17 [
i8 24, label LBL_8
i8 28, label LBL_11
i8 32, label LBL_14
]
LBL_8:
%33 = add nuw nsw i64 %4, 17179869160
%34 = udiv i64 %33, 4
%35 = trunc i64 %34 to i32
%36 = icmp ult i32 %35, 4
store i64 %rdi.017.reload, i64* %rdi.2.reg2mem
br i1 %36, label LBL_10, label LBL_9
LBL_9:
call void @__assert_fail(i8* getelementptr inbounds ([32 x i8], [32 x i8]* @gv_4, i64 0, i64 0), i8* getelementptr inbounds ([52 x i8], [52 x i8]* @gv_1, i64 0, i64 0), i32 73, i8* getelementptr inbounds ([19 x i8], [19 x i8]* @gv_2, i64 0, i64 0))
store i64 ptrtoint ([32 x i8]* @gv_4 to i64), i64* %rdi.2.reg2mem
br label LBL_10
LBL_10:
%rdi.2.reload = load i64, i64* %rdi.2.reg2mem
%37 = trunc i64 %3 to i32
%38 = and i32 %37, -2
%sext16 = mul i64 %34, 4294967296
%39 = ashr exact i64 %sext16, 30
%40 = add nsw i64 %39, 28
%41 = add i64 %40, %rdi.017.reload
%42 = inttoptr i64 %41 to i32*
store i32 %38, i32* %42, align 4
%43 = call i64 @FUNC(i64 %rdi.2.reload)
store i64 %43, i64* %rax.0.reg2mem
br label LBL_18
LBL_11:
%44 = add nuw nsw i64 %4, 17179869156
%45 = udiv i64 %44, 4
%46 = trunc i64 %45 to i32
%47 = icmp ult i32 %46, 4
store i64 %rdi.017.reload, i64* %rdi.3.reg2mem
br i1 %47, label LBL_13, label LBL_12
LBL_12:
call void @__assert_fail(i8* getelementptr inbounds ([32 x i8], [32 x i8]* @gv_4, i64 0, i64 0), i8* getelementptr inbounds ([52 x i8], [52 x i8]* @gv_1, i64 0, i64 0), i32 80, i8* getelementptr inbounds ([19 x i8], [19 x i8]* @gv_2, i64 0, i64 0))
store i64 ptrtoint ([32 x i8]* @gv_4 to i64), i64* %rdi.3.reg2mem
br label LBL_13
LBL_13:
%rdi.3.reload = load i64, i64* %rdi.3.reg2mem
%48 = trunc i64 %3 to i32
%49 = and i32 %48, 65534
%50 = udiv i64 %3, 65536
%51 = trunc i64 %50 to i32
%52 = and i32 %51, 65534
%sext15 = mul i64 %45, 4294967296
%53 = ashr exact i64 %sext15, 30
%54 = add i64 %rdi.017.reload, 8
%55 = add i64 %54, %53
%56 = inttoptr i64 %55 to i32*
%57 = load i32, i32* %56, align 4
%58 = or i32 %57, %49
%59 = sub i32 0, %52
%60 = sub i32 %59, 1
%61 = and i32 %58, %60
store i32 %61, i32* %56, align 4
%62 = call i64 @FUNC(i64 %rdi.3.reload)
store i64 %62, i64* %rax.0.reg2mem
br label LBL_18
LBL_14:
%63 = add nuw nsw i64 %4, 17179869152
%64 = udiv i64 %63, 4
%65 = trunc i64 %64 to i32
%66 = icmp ult i32 %65, 4
br i1 %66, label LBL_16, label LBL_15
LBL_15:
call void @__assert_fail(i8* getelementptr inbounds ([32 x i8], [32 x i8]* @gv_4, i64 0, i64 0), i8* getelementptr inbounds ([52 x i8], [52 x i8]* @gv_1, i64 0, i64 0), i32 89, i8* getelementptr inbounds ([19 x i8], [19 x i8]* @gv_2, i64 0, i64 0))
br label LBL_16
LBL_16:
%67 = trunc i64 %3 to i32
%68 = urem i32 %67, 16
%sext14 = mul i64 %64, 4294967296
%69 = ashr exact i64 %sext14, 30
%70 = add nsw i64 %69, 44
%71 = add i64 %70, %rdi.017.reload
%72 = inttoptr i64 %71 to i32*
store i32 %68, i32* %72, align 4
store i64 %rdi.017.reload, i64* %rax.0.reg2mem
br label LBL_18
LBL_17:
%73 = and i64 %3, 4294967295
%74 = call i64 @FUNC(i64 %4, i64 %73)
store i64 %74, i64* %rax.0.reg2mem
br label LBL_18
LBL_18:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %4, { 3, 4, 5, 6, 1, 0, 2 }
uselistorder i64 %rdi.017.reload, { 3, 11, 10, 4, 12, 5, 2, 6, 1, 7, 13, 8, 0, 9 }
uselistorder i64 %3, { 5, 6, 0, 7, 8, 4, 3, 2, 1 }
uselistorder i64* %rdi.017.reg2mem, { 0, 2, 1 }
uselistorder i64* %rax.0.reg2mem, { 0, 7, 8, 9, 10, 6, 5, 4, 1, 2, 3 }
uselistorder i64 30, { 2, 1, 0 }
uselistorder [32 x i8]* @gv_4, { 1, 0 }
uselistorder i32 4, { 2, 1, 0 }
uselistorder i32 -2, { 1, 0 }
uselistorder i64 (i64)* @grlib_irqmp_check_irqs, { 1, 0, 2 }
uselistorder i32 65534, { 0, 3, 1, 2 }
uselistorder i64 4, { 0, 1, 2, 5, 4, 3 }
uselistorder i64 8, { 2, 1, 0 }
uselistorder void (i8*, i8*, i32, i8*)* @__assert_fail, { 0, 3, 2, 1 }
uselistorder [14 x i8]* @gv_0, { 1, 0 }
uselistorder i64 %arg2, { 2, 0, 1 }
uselistorder label LBL_18, { 6, 7, 8, 9, 2, 3, 4, 5, 1, 0 }
uselistorder label LBL_16, { 1, 0 }
uselistorder label LBL_13, { 1, 0 }
uselistorder label LBL_10, { 1, 0 }
uselistorder label LBL_2, { 1, 0 }
}
|
0
|
CompRealVul
|
__sk_destruct_12510
|
__sk_destruct
|
define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%1 = load i64, i64* %0
%2 = load i64, i64* %0
%3 = load i64, i64* %0
%4 = ptrtoint i64* %arg1 to i64
%5 = add i64 %4, -56
%6 = add i64 %4, -40
%7 = call i64 @FUNC(i64 %6)
%8 = trunc i64 %7 to i32
%9 = icmp eq i32 %8, 0
%10 = add i64 %4, -48
%11 = inttoptr i64 %10 to i64*
%12 = load i64, i64* %11, align 8
%13 = zext i1 %9 to i64
%14 = call i64 @FUNC(i64 %12, i64 %13)
%15 = icmp eq i64 %14, 0
br i1 %15, label LBL_2, label LBL_1
LBL_1:
%16 = call i64 @FUNC(i64 %5, i64 %14)
store i64 0, i64* %11, align 8
br label LBL_2
LBL_2:
%17 = call i64 @FUNC(i64 %5, i64 1)
%18 = add i64 %4, -36
%19 = inttoptr i64 %18 to i32*
%20 = load i32, i32* %19, align 4
%21 = icmp eq i32 %20, 0
br i1 %21, label LBL_4, label LBL_3
LBL_3:
%22 = zext i32 %20 to i64
%23 = call i64 @FUNC(i8* getelementptr inbounds ([40 x i8], [40 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([14 x i8], [14 x i8]* @gv_1, i64 0, i64 0), i64 %22, i64 %3, i64 %2, i64 %1)
br label LBL_4
LBL_4:
%24 = add i64 %4, -32
%25 = inttoptr i64 %24 to i64*
%26 = load i64, i64* %25, align 8
%27 = icmp eq i64 %26, 0
br i1 %27, label LBL_6, label LBL_5
LBL_5:
%28 = call i64 @FUNC(i64 %26)
store i64 0, i64* %25, align 8
br label LBL_6
LBL_6:
%29 = add i64 %4, -24
%30 = inttoptr i64 %29 to i64*
%31 = load i64, i64* %30, align 8
%32 = icmp eq i64 %31, 0
br i1 %32, label LBL_8, label LBL_7
LBL_7:
%33 = call i64 @FUNC(i64 %31)
br label LBL_8
LBL_8:
%34 = add i64 %4, -16
%35 = inttoptr i64 %34 to i32*
%36 = load i32, i32* %35, align 4
%37 = zext i32 %36 to i64
%38 = call i64 @FUNC(i64 %37)
%39 = add i64 %4, -12
%40 = inttoptr i64 %39 to i32*
%41 = load i32, i32* %40, align 4
%42 = icmp eq i32 %41, 0
%43 = icmp eq i1 %42, false
%44 = icmp eq i1 %43, false
br i1 %44, label LBL_10, label LBL_9
LBL_9:
%45 = call i64 @FUNC(i64 %5)
%46 = call i64 @FUNC(i64 %45)
br label LBL_10
LBL_10:
%47 = add i64 %4, -8
%48 = inttoptr i64 %47 to i64*
%49 = load i64, i64* %48, align 8
%50 = call i64 @FUNC(i64 %49, i64 %5)
ret i64 %50
uselistorder i64 %5, { 2, 1, 3, 0 }
uselistorder i64* %0, { 2, 1, 0 }
}
|
1
|
CompRealVul
|
url_open_16400
|
url_open
|
define i64 @FUNC(i64* %arg1, i64 %arg2, i32 %arg3) local_unnamed_addr {
LBL_0:
%storemerge.reg2mem = alloca i64
%storemerge28.reg2mem = alloca i64
%.lcssa.reg2mem = alloca i8
%sv_0.1.lcssa.reg2mem = alloca i8*
%sv_0.0.reg2mem = alloca i8*
%sv_1.010.reg2mem = alloca i64
%sv_0.111.reg2mem = alloca i8*
%.reg2mem = alloca i8*
%sv_2 = alloca i64, align 8
%0 = bitcast i64* %sv_2 to i8*
%1 = inttoptr i64 %arg2 to i8*
%2 = load i8, i8* %1, align 1
%3 = icmp ne i8 %2, 0
%4 = icmp eq i8 %2, 58
%5 = icmp eq i1 %4, false
%or.cond9 = icmp eq i1 %3, %5
store i8* %0, i8** %sv_0.1.lcssa.reg2mem
store i8 %2, i8* %.lcssa.reg2mem
br i1 %or.cond9, label LBL_1, label LBL_6
LBL_1:
%6 = ptrtoint i64* %sv_2 to i64
store i8* %1, i8** %.reg2mem
store i8* %0, i8** %sv_0.111.reg2mem
store i64 %arg2, i64* %sv_1.010.reg2mem
br label LBL_2
LBL_2:
%.reload = load i8*, i8** %.reg2mem
%7 = call i16** @__ctype_b_loc()
%8 = load i16*, i16** %7, align 8
%9 = ptrtoint i16* %8 to i64
%10 = load i8, i8* %.reload, align 1
%11 = sext i8 %10 to i64
%12 = mul i64 %11, 2
%13 = add i64 %12, %9
%14 = inttoptr i64 %13 to i16*
%15 = load i16, i16* %14, align 2
%16 = and i16 %15, 1024
%17 = icmp eq i16 %16, 0
br i1 %17, label LBL_8, label LBL_3
LBL_3:
%sv_1.010.reload = load i64, i64* %sv_1.010.reg2mem
%sv_0.111.reload = load i8*, i8** %sv_0.111.reg2mem
%18 = ptrtoint i8* %sv_0.111.reload to i64
%19 = sub i64 %18, %6
%20 = icmp ult i64 %19, 127
store i8* %sv_0.111.reload, i8** %sv_0.0.reg2mem
br i1 %20, label LBL_4, label LBL_5
LBL_4:
%21 = add i64 %18, 1
%22 = inttoptr i64 %21 to i8*
store i8 %10, i8* %sv_0.111.reload, align 1
store i8* %22, i8** %sv_0.0.reg2mem
br label LBL_5
LBL_5:
%sv_0.0.reload = load i8*, i8** %sv_0.0.reg2mem
%23 = add i64 %sv_1.010.reload, 1
%24 = inttoptr i64 %23 to i8*
%25 = load i8, i8* %24, align 1
%26 = icmp ne i8 %25, 0
%27 = icmp eq i8 %25, 58
%28 = icmp eq i1 %27, false
%or.cond = icmp eq i1 %26, %28
store i8* %24, i8** %.reg2mem
store i8* %sv_0.0.reload, i8** %sv_0.111.reg2mem
store i64 %23, i64* %sv_1.010.reg2mem
store i8* %sv_0.0.reload, i8** %sv_0.1.lcssa.reg2mem
store i8 %25, i8* %.lcssa.reg2mem
br i1 %or.cond, label LBL_2, label LBL_6
LBL_6:
%.lcssa.reload = load i8, i8* %.lcssa.reg2mem
%29 = icmp eq i8 %.lcssa.reload, 0
br i1 %29, label LBL_8, label LBL_7
LBL_7:
%sv_0.1.lcssa.reload = load i8*, i8** %sv_0.1.lcssa.reg2mem
%30 = ptrtoint i64* %sv_2 to i64
%31 = ptrtoint i8* %sv_0.1.lcssa.reload to i64
%32 = sub i64 %31, %30
%33 = icmp sgt i64 %32, 1
br i1 %33, label LBL_9, label LBL_8
LBL_8:
store i64 1701603686, i64* %sv_2, align 8
br label LBL_10
LBL_9:
store i8 0, i8* %sv_0.1.lcssa.reload, align 1
br label LBL_10
LBL_10:
%34 = ptrtoint i64* %arg1 to i64
%storemerge27 = load i64, i64* @gv_0, align 8
%35 = icmp eq i64 %storemerge27, 0
%36 = icmp eq i1 %35, false
store i64 %storemerge27, i64* %storemerge28.reg2mem
br i1 %36, label LBL_11, label LBL_14
LBL_11:
%storemerge28.reload = load i64, i64* %storemerge28.reg2mem
%37 = inttoptr i64 %storemerge28.reload to i64*
%38 = load i64, i64* %37, align 8
%39 = inttoptr i64 %38 to i8*
%40 = call i32 @strcmp(i8* nonnull %0, i8* %39)
%41 = icmp eq i32 %40, 0
%42 = icmp eq i1 %41, false
br i1 %42, label LBL_13, label LBL_12
LBL_12:
%43 = call i64 @FUNC(i64 %34, i64 %storemerge28.reload, i64 %arg2, i32 %arg3)
store i64 %43, i64* %storemerge.reg2mem
br label LBL_15
LBL_13:
%44 = add i64 %storemerge28.reload, 8
%45 = inttoptr i64 %44 to i64*
%storemerge2 = load i64, i64* %45, align 8
%46 = icmp eq i64 %storemerge2, 0
%47 = icmp eq i1 %46, false
store i64 %storemerge2, i64* %storemerge28.reg2mem
br i1 %47, label LBL_11, label LBL_14
LBL_14:
store i64 0, i64* %arg1, align 8
store i64 4294967294, i64* %storemerge.reg2mem
br label LBL_15
LBL_15:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
ret i64 %storemerge.reload
uselistorder i64 %storemerge28.reload, { 0, 2, 1 }
uselistorder i8* %sv_0.1.lcssa.reload, { 1, 0 }
uselistorder i8* %sv_0.111.reload, { 2, 0, 1 }
uselistorder i8* %0, { 2, 1, 0 }
uselistorder i64* %sv_2, { 1, 2, 3, 0 }
uselistorder i8** %.reg2mem, { 1, 0, 2 }
uselistorder i8** %sv_0.111.reg2mem, { 1, 0, 2 }
uselistorder i64* %sv_1.010.reg2mem, { 1, 0, 2 }
uselistorder i8** %sv_0.0.reg2mem, { 0, 2, 1 }
uselistorder i64* %storemerge28.reg2mem, { 2, 0, 1 }
uselistorder i1 false, { 4, 3, 1, 2, 0 }
uselistorder i8 58, { 1, 0 }
uselistorder i8 0, { 1, 2, 3, 0 }
uselistorder i64 %arg2, { 2, 0, 1 }
uselistorder label LBL_15, { 1, 0 }
uselistorder label LBL_11, { 1, 0 }
uselistorder label LBL_8, { 2, 1, 0 }
uselistorder label LBL_5, { 1, 0 }
uselistorder label LBL_2, { 1, 0 }
}
|
1
|
CompRealVul
|
apply_mid_side_stereo_17238
|
apply_mid_side_stereo
|
define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%storemerge14.reg2mem = alloca i32
%.reg2mem70 = alloca i64
%.reg2mem68 = alloca i64
%.reg2mem66 = alloca i64
%.reg2mem64 = alloca i32
%.lcssa5.reg2mem = alloca i32
%.reg2mem62 = alloca i64
%.reg2mem60 = alloca i64
%.reg2mem58 = alloca i32
%.reg2mem56 = alloca i32
%.reg2mem54 = alloca i32
%.reg2mem52 = alloca i64
%.pre2125.reg2mem = alloca i32
%.pn.reg2mem = alloca i32
%.reg2mem50 = alloca i32
%.pre2127.reg2mem = alloca i32
%.reg2mem48 = alloca i64
%storemerge47.reg2mem = alloca i32
%sv_0.08.reg2mem = alloca i32
%storemerge211.reg2mem = alloca i32
%.reg2mem46 = alloca i64
%.reg2mem44 = alloca i32
%.pre2126.reg2mem = alloca i32
%.reg2mem42 = alloca i64
%storemerge112.reg2mem = alloca i32
%.reg2mem40 = alloca i32
%.reg2mem38 = alloca i32
%.reg2mem = alloca i64
%.pre2124.reg2mem = alloca i32
%0 = ptrtoint i64* %arg1 to i64
%1 = add i64 %0, 88
%2 = inttoptr i64 %1 to i32*
%3 = load i32, i32* %2, align 4
%4 = icmp eq i32 %3, 0
store i64 0, i64* %rax.0.reg2mem
br i1 %4, label LBL_16, label LBL_1
LBL_1:
%5 = add i64 %0, 32
%6 = inttoptr i64 %5 to i32*
%7 = load i32, i32* %6, align 4
%8 = icmp eq i32 %7, 0
store i64 0, i64* %rax.0.reg2mem
br i1 %8, label LBL_16, label LBL_2
LBL_2:
%9 = add i64 %0, 8
%10 = add i64 %0, 24
%11 = inttoptr i64 %10 to i64*
%12 = add i64 %0, 16
%13 = inttoptr i64 %12 to i32*
%14 = add i64 %0, 80
%15 = inttoptr i64 %14 to i64*
%16 = inttoptr i64 %9 to i64*
%17 = add i64 %0, 40
%18 = inttoptr i64 %17 to i64*
%.pre = load i64, i64* %11, align 8
store i32 %7, i32* %.reg2mem64
store i64 %.pre, i64* %.reg2mem66
store i64 %.pre, i64* %.reg2mem68
store i64 0, i64* %.reg2mem70
store i32 0, i32* %storemerge14.reg2mem
br label LBL_14
LBL_3:
%storemerge112.reload = load i32, i32* %storemerge112.reg2mem
%.reload41 = load i32, i32* %.reg2mem40
%.reload39 = load i32, i32* %.reg2mem38
%.reload = load i64, i64* %.reg2mem
%.pre2124.reload = load i32, i32* %.pre2124.reg2mem
%19 = icmp eq i32 %.reload41, 0
store i32 %.pre2124.reload, i32* %.pre2125.reg2mem
store i64 %.reload, i64* %.reg2mem52
store i32 %.reload39, i32* %.reg2mem54
store i32 0, i32* %.reg2mem56
br i1 %19, label LBL_11, label LBL_4
LBL_4:
%20 = add i32 %storemerge112.reload, %storemerge14.reload
%21 = mul i32 %20, 128
%.pre37 = load i64, i64* %16, align 8
store i64 %.pre37, i64* %.reg2mem42
store i32 %.pre2124.reload, i32* %.pre2126.reg2mem
store i32 %.reload39, i32* %.reg2mem44
store i64 0, i64* %.reg2mem46
store i32 0, i32* %storemerge211.reg2mem
store i32 %21, i32* %sv_0.08.reg2mem
br label LBL_5
LBL_5:
%sv_0.08.reload = load i32, i32* %sv_0.08.reg2mem
%storemerge211.reload = load i32, i32* %storemerge211.reg2mem
%.reload47 = load i64, i64* %.reg2mem46
%.reload45 = load i32, i32* %.reg2mem44
%.pre2126.reload = load i32, i32* %.pre2126.reg2mem
%.reload43 = load i64, i64* %.reg2mem42
%22 = load i64, i64* %15, align 8
%23 = add i32 %storemerge211.reload, %100
%24 = sext i32 %23 to i64
%25 = mul i64 %24, 4
%26 = add i64 %25, %22
%27 = inttoptr i64 %26 to i32*
%28 = load i32, i32* %27, align 4
%29 = icmp eq i32 %28, 0
%30 = icmp eq i1 %29, false
%31 = mul i64 %.reload47, 4
%32 = add i64 %.reload43, %31
%33 = inttoptr i64 %32 to i32*
%34 = load i32, i32* %33, align 4
store i64 %.reload43, i64* %.reg2mem48
store i32 %.pre2126.reload, i32* %.pre2127.reg2mem
store i32 %.reload45, i32* %.reg2mem50
store i32 %34, i32* %.pn.reg2mem
br i1 %30, label LBL_6, label LBL_9
LBL_6:
%35 = icmp eq i32 %34, 0
store i32 0, i32* %storemerge47.reg2mem
store i64 %.reload43, i64* %.reg2mem48
store i32 %.pre2126.reload, i32* %.pre2127.reg2mem
store i32 %.pre2126.reload, i32* %.reg2mem50
store i32 0, i32* %.pn.reg2mem
br i1 %35, label LBL_9, label LBL_7
LBL_7:
%storemerge47.reload = load i32, i32* %storemerge47.reg2mem
%36 = add i32 %storemerge47.reload, %sv_0.08.reload
%37 = sext i32 %36 to i64
%38 = mul i64 %37, 4
%39 = add i64 %38, %0
%40 = inttoptr i64 %39 to i32*
%41 = load i32, i32* %40, align 4
%42 = call i128 @FUNC(i32 %41)
%43 = load i64, i64* %18, align 8
%44 = add i64 %43, %38
%45 = inttoptr i64 %44 to i32*
%46 = load i32, i32* %45, align 4
%47 = call i128 @FUNC(i32 %46)
%48 = call i128 @FUNC(i128 %42, i128 %47)
%49 = load i32, i32* inttoptr (i64 4202512 to i32*), align 16
%50 = call i128 @FUNC(i32 %49)
%51 = call i128 @FUNC(i128 %50, i128 %48)
%52 = call i64 @__asm_movss.1(i128 %51)
%53 = trunc i64 %52 to i32
%54 = load i64, i64* %18, align 8
%55 = add i64 %54, %38
%56 = inttoptr i64 %55 to i32*
%57 = load i32, i32* %56, align 4
%58 = call i128 @FUNC(i32 %57)
%59 = call i128 @FUNC(i32 %53)
%60 = call i128 @FUNC(i128 %59, i128 %58)
%61 = call i64 @__asm_movss.1(i128 %60)
%62 = trunc i64 %61 to i32
%63 = call i128 @FUNC(i32 %53)
%64 = call i64 @__asm_movss.1(i128 %63)
%65 = trunc i64 %64 to i32
store i32 %65, i32* %40, align 4
%66 = load i64, i64* %18, align 8
%67 = add i64 %66, %38
%68 = call i128 @FUNC(i32 %62)
%69 = call i64 @__asm_movss.1(i128 %68)
%70 = trunc i64 %69 to i32
%71 = inttoptr i64 %67 to i32*
store i32 %70, i32* %71, align 4
%72 = add i32 %storemerge47.reload, 1
%73 = load i64, i64* %16, align 8
%74 = add i64 %73, %31
%75 = inttoptr i64 %74 to i32*
%76 = load i32, i32* %75, align 4
%77 = zext i32 %76 to i64
%78 = sext i32 %72 to i64
%79 = icmp slt i64 %78, %77
store i32 %72, i32* %storemerge47.reg2mem
br i1 %79, label LBL_7, label LBL_8
LBL_8:
%.pre21.pre = load i32, i32* %13, align 4
store i64 %73, i64* %.reg2mem48
store i32 %.pre21.pre, i32* %.pre2127.reg2mem
store i32 %.pre21.pre, i32* %.reg2mem50
store i32 %76, i32* %.pn.reg2mem
br label LBL_9
LBL_9:
%.pn.reload = load i32, i32* %.pn.reg2mem
%.reload51 = load i32, i32* %.reg2mem50
%.pre2127.reload = load i32, i32* %.pre2127.reg2mem
%.reload49 = load i64, i64* %.reg2mem48
%storemerge3 = add i32 %.pn.reload, %sv_0.08.reload
%80 = add i32 %storemerge211.reload, 1
%81 = zext i32 %.reload51 to i64
%82 = sext i32 %80 to i64
%83 = icmp slt i64 %82, %81
store i64 %.reload49, i64* %.reg2mem42
store i32 %.pre2127.reload, i32* %.pre2126.reg2mem
store i32 %.reload51, i32* %.reg2mem44
store i64 %82, i64* %.reg2mem46
store i32 %80, i32* %storemerge211.reg2mem
store i32 %storemerge3, i32* %sv_0.08.reg2mem
br i1 %83, label LBL_5, label LBL_10
LBL_10:
%.pre22 = load i64, i64* %11, align 8
store i32 %.pre2127.reload, i32* %.pre2125.reg2mem
store i64 %.pre22, i64* %.reg2mem52
store i32 %.reload51, i32* %.reg2mem54
store i32 %.reload51, i32* %.reg2mem56
br label LBL_11
LBL_11:
%.reload57 = load i32, i32* %.reg2mem56
%.reload55 = load i32, i32* %.reg2mem54
%.reload53 = load i64, i64* %.reg2mem52
%.pre2125.reload = load i32, i32* %.pre2125.reg2mem
%84 = add i32 %storemerge112.reload, 1
%85 = add i64 %.reload53, %95
%86 = inttoptr i64 %85 to i32*
%87 = load i32, i32* %86, align 4
%88 = zext i32 %87 to i64
%89 = sext i32 %84 to i64
%90 = icmp slt i64 %89, %88
store i32 %.pre2125.reload, i32* %.pre2124.reg2mem
store i64 %.reload53, i64* %.reg2mem
store i32 %.reload55, i32* %.reg2mem38
store i32 %.reload57, i32* %.reg2mem40
store i32 %84, i32* %storemerge112.reg2mem
br i1 %90, label LBL_3, label LBL_12
LBL_12:
%.pre23 = load i32, i32* %6, align 4
store i32 %.pre23, i32* %.reg2mem58
store i64 %.reload53, i64* %.reg2mem60
store i64 %.reload53, i64* %.reg2mem62
store i32 %87, i32* %.lcssa5.reg2mem
br label LBL_13
LBL_13:
%.lcssa5.reload = load i32, i32* %.lcssa5.reg2mem
%.reload63 = load i64, i64* %.reg2mem62
%.reload61 = load i64, i64* %.reg2mem60
%.reload59 = load i32, i32* %.reg2mem58
%91 = add i32 %.lcssa5.reload, %storemerge14.reload
%92 = zext i32 %.reload59 to i64
%93 = sext i32 %91 to i64
%94 = icmp slt i64 %93, %92
store i32 %.reload59, i32* %.reg2mem64
store i64 %.reload61, i64* %.reg2mem66
store i64 %.reload63, i64* %.reg2mem68
store i64 %93, i64* %.reg2mem70
store i32 %91, i32* %storemerge14.reg2mem
store i64 %92, i64* %rax.0.reg2mem
br i1 %94, label LBL_14, label LBL_16
LBL_14:
%storemerge14.reload = load i32, i32* %storemerge14.reg2mem
%.reload71 = load i64, i64* %.reg2mem70
%.reload69 = load i64, i64* %.reg2mem68
%.reload67 = load i64, i64* %.reg2mem66
%.reload65 = load i32, i32* %.reg2mem64
%95 = mul i64 %.reload71, 4
%96 = add i64 %95, %.reload69
%97 = inttoptr i64 %96 to i32*
%98 = load i32, i32* %97, align 4
%99 = icmp eq i32 %98, 0
store i32 %.reload65, i32* %.reg2mem58
store i64 %.reload67, i64* %.reg2mem60
store i64 %.reload69, i64* %.reg2mem62
store i32 0, i32* %.lcssa5.reg2mem
br i1 %99, label LBL_13, label LBL_3.lr.ph
LBL_15:
%100 = mul i32 %storemerge14.reload, 16
%.pre20 = load i32, i32* %13, align 4
store i32 %.pre20, i32* %.pre2124.reg2mem
store i64 %.reload67, i64* %.reg2mem
store i32 %.pre20, i32* %.reg2mem38
store i32 %.pre20, i32* %.reg2mem40
store i32 0, i32* %storemerge112.reg2mem
br label LBL_3
LBL_16:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %.reload69, { 1, 0 }
uselistorder i32 %storemerge14.reload, { 2, 0, 1 }
uselistorder i64 %.reload53, { 0, 1, 3, 2 }
uselistorder i32 %.reload51, { 0, 1, 3, 2 }
uselistorder i32 %53, { 1, 0 }
uselistorder i64 %38, { 3, 2, 0, 1 }
uselistorder i32 %34, { 1, 0 }
uselistorder i64 %31, { 1, 0 }
uselistorder i64 %.reload43, { 1, 0, 2 }
uselistorder i32 %.pre2126.reload, { 0, 2, 1 }
uselistorder i32 %sv_0.08.reload, { 1, 0 }
uselistorder i32 %.pre2124.reload, { 1, 0 }
uselistorder i32 %.reload39, { 1, 0 }
uselistorder i64* %16, { 1, 0 }
uselistorder i32* %13, { 1, 0 }
uselistorder i64 %0, { 0, 4, 5, 1, 2, 7, 3, 6 }
uselistorder i32* %.pre2124.reg2mem, { 2, 1, 0 }
uselistorder i64* %.reg2mem, { 2, 1, 0 }
uselistorder i32* %.reg2mem38, { 2, 1, 0 }
uselistorder i32* %.reg2mem40, { 2, 1, 0 }
uselistorder i32* %storemerge112.reg2mem, { 2, 1, 0 }
uselistorder i64* %.reg2mem42, { 1, 0, 2 }
uselistorder i32* %.pre2126.reg2mem, { 1, 0, 2 }
uselistorder i32* %.reg2mem44, { 1, 0, 2 }
uselistorder i64* %.reg2mem46, { 1, 0, 2 }
uselistorder i32* %storemerge211.reg2mem, { 1, 0, 2 }
uselistorder i32* %sv_0.08.reg2mem, { 1, 0, 2 }
uselistorder i32* %storemerge47.reg2mem, { 2, 0, 1 }
uselistorder i64* %.reg2mem48, { 0, 3, 2, 1 }
uselistorder i32* %.pre2127.reg2mem, { 0, 3, 2, 1 }
uselistorder i32* %.reg2mem50, { 0, 3, 2, 1 }
uselistorder i32* %.pn.reg2mem, { 0, 3, 2, 1 }
uselistorder i32* %.reg2mem58, { 1, 0, 2 }
uselistorder i64* %.reg2mem60, { 1, 0, 2 }
uselistorder i64* %.reg2mem62, { 1, 0, 2 }
uselistorder i32* %.lcssa5.reg2mem, { 1, 0, 2 }
uselistorder i32 0, { 6, 1, 9, 3, 4, 7, 11, 5, 2, 8, 0, 10, 12 }
uselistorder label LBL_14, { 1, 0 }
uselistorder label LBL_11, { 1, 0 }
uselistorder label LBL_9, { 1, 2, 0 }
uselistorder label LBL_7, { 1, 0 }
uselistorder label LBL_5, { 1, 0 }
}
|
1
|
CompRealVul
|
SRXAFSCB_InitCallBackState_3951
|
SRXAFSCB_InitCallBackState
|
define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%0 = ptrtoint i64* %arg1 to i64
%1 = call i64 @FUNC(i8* getelementptr inbounds ([5 x i8], [5 x i8]* @gv_0, i64 0, i64 0), i64 %0)
%2 = call i64 @FUNC(i64 ptrtoint ([5 x i8]* @gv_0 to i64))
%3 = call i64 @FUNC(i64 %0)
%4 = call i64 @FUNC(i64 %0)
%5 = call i64 @FUNC(i64 4202517)
ret i64 %5
uselistorder i64 %0, { 1, 0, 2 }
uselistorder [5 x i8]* @gv_0, { 1, 0 }
}
|
0
|
CompRealVul
|
yr_re_ast_create_11517
|
yr_re_ast_create
|
define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%0 = call i64 @FUNC(i64 16)
store i64 %0, i64* %arg1, align 8
store i32 0, i32* inttoptr (i64 16 to i32*), align 16
store i64 0, i64* inttoptr (i64 24 to i64*), align 8
ret i64 0
}
|
1
|
CompRealVul
|
tgen_andi_798
|
tgen_andi
|
define i64 @FUNC(i64* %arg1, i64 %arg2, i64 %arg3, i64 %arg4) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%storemerge.reg2mem = alloca i64
%sv_0.0.reg2mem = alloca i32
%indvars.iv.reg2mem = alloca i64
%indvars.iv27.reg2mem = alloca i64
%0 = ptrtoint i64* %arg1 to i64
%1 = trunc i64 %arg2 to i32
%sext3 = mul i64 %arg3, 4294967296
%2 = ashr exact i64 %sext3, 32
%3 = icmp eq i32 %1, 0
%4 = icmp eq i1 %3, false
%. = select i1 %4, i64 -1, i64 4294967295
%5 = and i64 %., %arg4
%6 = icmp eq i64 %5, 4294967295
%7 = icmp eq i1 %6, false
br i1 %7, label LBL_2, label LBL_1
LBL_1:
%8 = trunc i64 %2 to i32
%9 = and i64 %2, 4294967295
%10 = call i64 @FUNC(i64 %0, i64 %9, i32 %8)
store i64 %10, i64* %rax.0.reg2mem
br label LBL_24
LBL_2:
%11 = load i32, i32* bitcast (i64* @gv_0 to i32*), align 8
%12 = urem i32 %11, 2
%13 = icmp eq i32 %12, 0
br i1 %13, label LBL_7, label LBL_3
LBL_3:
%14 = icmp eq i64 %5, 255
%15 = icmp eq i1 %14, false
br i1 %15, label LBL_5, label LBL_4
LBL_4:
%16 = trunc i64 %2 to i32
%17 = call i64 @FUNC(i64 %0, i64 1, i32 %16, i32 %16)
store i64 %17, i64* %rax.0.reg2mem
br label LBL_24
LBL_5:
%18 = icmp eq i64 %5, 65535
%19 = icmp eq i1 %18, false
br i1 %19, label LBL_7, label LBL_6
LBL_6:
%20 = trunc i64 %2 to i32
%21 = call i64 @FUNC(i64 %0, i64 1, i32 %20, i32 %20)
store i64 %21, i64* %rax.0.reg2mem
br label LBL_24
LBL_7:
%22 = sub i64 0, %.
%23 = sub i64 %22, 1
%24 = or i64 %23, %arg4
store i64 0, i64* %indvars.iv27.reg2mem
br label LBL_8
LBL_8:
%indvars.iv27.reload = load i64, i64* %indvars.iv27.reg2mem
%25 = mul i64 %indvars.iv27.reload, 16
%26 = shl i64 -65535, %25
%27 = add i64 %26, -1
%28 = and i64 %24, %27
%29 = icmp eq i64 %28, %27
%30 = icmp eq i1 %29, false
br i1 %30, label LBL_10, label LBL_9
LBL_9:
%31 = lshr i64 %arg4, %25
%sext = mul i64 %indvars.iv27.reload, 4294967296
%32 = ashr exact i64 %sext, 30
%33 = add i64 %32, ptrtoint (i32** @gv_1 to i64)
%34 = inttoptr i64 %33 to i32*
%35 = load i32, i32* %34, align 4
%36 = trunc i64 %2 to i32
%37 = call i64 @FUNC(i64 %0, i32 %35, i32 %36, i64 %31)
store i64 %37, i64* %rax.0.reg2mem
br label LBL_24
LBL_10:
%indvars.iv.next28 = add nuw nsw i64 %indvars.iv27.reload, 1
%38 = icmp ult i64 %indvars.iv.next28, 4
store i64 %indvars.iv.next28, i64* %indvars.iv27.reg2mem
br i1 %38, label LBL_8, label LBL_11
LBL_11:
store i64 0, i64* %indvars.iv.reg2mem
br i1 %13, label LBL_15, label LBL_12
LBL_12:
%indvars.iv.reload = load i64, i64* %indvars.iv.reg2mem
%39 = mul i64 %indvars.iv.reload, 32
%40 = shl i64 -4294967295, %39
%41 = add nsw i64 %40, -1
%42 = and i64 %24, %41
%43 = icmp eq i64 %42, %41
%44 = icmp eq i1 %43, false
br i1 %44, label LBL_14, label LBL_13
LBL_13:
%45 = lshr i64 %arg4, %39
%sext29 = mul i64 %indvars.iv.reload, 4
%46 = or i64 %sext29, ptrtoint (i32** @gv_2 to i64)
%47 = inttoptr i64 %46 to i32*
%48 = load i32, i32* %47, align 4
%49 = trunc i64 %2 to i32
%50 = call i64 @FUNC(i64 %0, i32 %48, i32 %49, i64 %45)
store i64 %50, i64* %rax.0.reg2mem
br label LBL_24
LBL_14:
%51 = icmp eq i64 %indvars.iv.reload, 1
store i64 1, i64* %indvars.iv.reg2mem
br i1 %51, label LBL_15, label LBL_12
LBL_15:
%52 = and i32 %11, 2
%53 = icmp eq i32 %52, 0
br i1 %53, label LBL_21, label LBL_16
LBL_16:
%54 = call i64 @FUNC(i64 %arg4)
%55 = trunc i64 %54 to i32
%56 = icmp eq i32 %55, 0
br i1 %56, label LBL_21, label LBL_17
LBL_17:
%57 = icmp ult i64 %arg4, -9223372036854775806
%58 = add i64 %arg4, 9223372036854775806
%59 = select i1 %57, i64 %arg4, i64 %58
%60 = icmp eq i64 %59, -9223372036854775807
%61 = icmp eq i1 %60, false
br i1 %61, label LBL_19, label LBL_18
LBL_18:
%62 = sub i64 0, %arg4
%63 = sub i64 %62, 1
%64 = call i64 @FUNC(i64 %63)
%65 = trunc i64 %64 to i32
%66 = sub i32 64, %65
%67 = call i64 @FUNC(i64 %63)
%68 = add i64 %67, 4294967295
store i32 %66, i32* %sv_0.0.reg2mem
store i64 %68, i64* %storemerge.reg2mem
br label LBL_20
LBL_19:
%69 = call i64 @FUNC(i64 %arg4)
%70 = trunc i64 %69 to i32
%71 = call i64 @FUNC(i64 %arg4)
%72 = sub i64 63, %71
store i32 %70, i32* %sv_0.0.reg2mem
store i64 %72, i64* %storemerge.reg2mem
br label LBL_20
LBL_20:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
%sv_0.0.reload = load i32, i32* %sv_0.0.reg2mem
%73 = trunc i64 %2 to i32
%74 = and i64 %storemerge.reload, 4294967295
%75 = call i64 @FUNC(i64 %0, i32 %73, i32 %73, i32 %sv_0.0.reload, i64 %74, i64 0)
store i64 %75, i64* %rax.0.reg2mem
br label LBL_24
LBL_21:
%76 = call i64 @FUNC(i64 %0, i32 %1, i64 10, i64 %arg4)
%77 = and i64 %2, 4294967295
br i1 %4, label LBL_23, label LBL_22
LBL_22:
%78 = call i64 @FUNC(i64 %0, i64 6, i64 7, i64 %77, i64 10)
store i64 %78, i64* %rax.0.reg2mem
br label LBL_24
LBL_23:
%79 = call i64 @FUNC(i64 %0, i64 8, i64 9, i64 %77, i64 10)
store i64 %79, i64* %rax.0.reg2mem
br label LBL_24
LBL_24:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %77, { 1, 0 }
uselistorder i32 %73, { 1, 0 }
uselistorder i64 %63, { 1, 0 }
uselistorder i64 %41, { 1, 0 }
uselistorder i64 %indvars.iv.reload, { 0, 2, 1 }
uselistorder i64 %27, { 1, 0 }
uselistorder i64 %indvars.iv27.reload, { 0, 2, 1 }
uselistorder i32 %20, { 1, 0 }
uselistorder i32 %16, { 1, 0 }
uselistorder i32 %11, { 1, 0 }
uselistorder i64 %2, { 6, 5, 4, 7, 3, 2, 1, 0 }
uselistorder i64 %0, { 5, 6, 7, 4, 3, 8, 2, 1, 0 }
uselistorder i64* %indvars.iv27.reg2mem, { 1, 0, 2 }
uselistorder i64* %indvars.iv.reg2mem, { 2, 0, 1 }
uselistorder i32* %sv_0.0.reg2mem, { 0, 2, 1 }
uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 }
uselistorder i64* %rax.0.reg2mem, { 0, 7, 6, 5, 4, 8, 3, 2, 1 }
uselistorder i64 (i64, i64, i64, i64, i64)* @tcg_out_insn, { 1, 0 }
uselistorder i64 63, { 0, 2, 1 }
uselistorder i64 (i64)* @clz64, { 1, 0 }
uselistorder i64 (i64)* @ctz64, { 1, 0 }
uselistorder i64 1, { 1, 0, 3, 4, 2, 5, 6 }
uselistorder i32 2, { 1, 0 }
uselistorder i1 false, { 1, 0, 2, 3, 4, 5, 6 }
uselistorder i64 %arg4, { 10, 7, 8, 0, 2, 1, 3, 9, 6, 11, 4, 5 }
uselistorder label LBL_12, { 1, 0 }
uselistorder label LBL_8, { 1, 0 }
}
|
0
|
CompRealVul
|
pool_strdup_12229
|
pool_strdup
|
define i64 @FUNC(i64 %arg1) local_unnamed_addr {
LBL_0:
%0 = inttoptr i64 %arg1 to i8*
%1 = call i32 @strlen(i8* %0)
%2 = sext i32 %1 to i64
%3 = add nsw i64 %2, 1
%4 = call i64 @FUNC(i64 %3)
%5 = inttoptr i64 %4 to i8*
%6 = call i8* @strcpy(i8* %5, i8* %0)
ret i64 %4
}
|
1
|
CompRealVul
|
aspeed_soc_class_init_16467
|
aspeed_soc_class_init
|
define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr {
LBL_0:
%0 = ptrtoint i64* %arg1 to i64
store i64 4198662, i64* %arg1, align 8
ret i64 %0
}
|
1
|
CompRealVul
|
vp9_bigdia_search_18727
|
vp9_bigdia_search
|
define i64 @FUNC(i32* %arg1, i64* %arg2, i32 %arg3, i32 %arg4, i32 %arg5, i64* %arg6, i64 %arg7, i64 %arg8, i64* %arg9, i64* %arg10) local_unnamed_addr {
LBL_0:
%0 = ptrtoint i64* %arg6 to i64
%1 = ptrtoint i64* %arg2 to i64
%2 = ptrtoint i32* %arg1 to i64
%3 = call i64 @FUNC(i64 %2, i64 %1, i32 %arg3, i32 %arg4, i32 %arg5, i64 %0)
ret i64 %3
}
|
1
|
CompRealVul
|
VRY_Match_4555
|
VRY_Match
|
define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%rdi.6.ph.reg2mem = alloca i64
%rdi.5.reg2mem = alloca i64
%rdi.4.reg2mem = alloca i64
%sv_0.0.reg2mem = alloca i32
%rdi.3.reg2mem = alloca i64
%sv_1.0.reg2mem = alloca i32
%sv_2.0.reg2mem = alloca i32
%rdi.2.reg2mem = alloca i64
%rdi.1.reg2mem = alloca i64
%storemerge.lcssa.reg2mem = alloca i64
%.pre-phi.reg2mem = alloca i64
%storemerge7.reg2mem = alloca i64
%rdi.5.ph.reg2mem = alloca i64
%sv_3.0.ph.reg2mem = alloca i8*
%sv_4.0.ph.reg2mem = alloca i64
%0 = ptrtoint i64* %arg2 to i64
%1 = ptrtoint i64* %arg1 to i64
%sv_5 = alloca i8*, align 8
%2 = bitcast i64* %arg1 to i8*
%3 = call i64 @FUNC(i64 %1)
%4 = add i64 %1, 8
%5 = inttoptr i64 %4 to i64*
%6 = add i64 %1, 24
%7 = inttoptr i64 %6 to i64*
%8 = bitcast i8** %sv_5 to i64*
%9 = add i64 %1, 16
%10 = inttoptr i64 %9 to i64*
store i64 %0, i64* %sv_4.0.ph.reg2mem
store i8* %2, i8** %sv_3.0.ph.reg2mem
store i64 %1, i64* %rdi.5.ph.reg2mem
br label LBL_1
LBL_1:
%rdi.5.ph.reload = load i64, i64* %rdi.5.ph.reg2mem
%sv_3.0.ph.reload = load i8*, i8** %sv_3.0.ph.reg2mem
%sv_4.0.ph.reload = load i64, i64* %sv_4.0.ph.reg2mem
%11 = add i64 %sv_4.0.ph.reload, 2
%12 = inttoptr i64 %11 to i8*
%13 = ptrtoint i8* %sv_3.0.ph.reload to i64
%14 = add i64 %13, 2
%15 = inttoptr i64 %14 to i64*
%16 = inttoptr i64 %11 to i64*
%17 = inttoptr i64 %14 to i8*
%18 = add i64 %13, 4
store i64 %rdi.5.ph.reload, i64* %rdi.5.reg2mem
br label LBL_20
LBL_2:
%rdi.5.reload = load i64, i64* %rdi.5.reg2mem
%19 = load i64, i64* %5, align 8
%20 = icmp ult i64 %14, %19
store i64 %rdi.5.reload, i64* %rdi.6.ph.reg2mem
br i1 %20, label LBL_3, label LBL_21
LBL_3:
%21 = call i64 @FUNC(i64 %sv_4.0.ph.reload, i64 %13)
%22 = trunc i64 %21 to i32
%23 = icmp eq i32 %22, 1
%24 = icmp eq i1 %23, false
store i32 %22, i32* %sv_0.0.reg2mem
store i64 %sv_4.0.ph.reload, i64* %rdi.4.reg2mem
br i1 %24, label LBL_17, label LBL_4
LBL_4:
%25 = load i8, i8* %12, align 1
%26 = zext i8 %25 to i32
%27 = add nuw nsw i32 %26, 4
%28 = load i64, i64* %7, align 8
%29 = call i64 @FUNC(i64 %28, i64 %11, i64* nonnull %8)
%30 = trunc i64 %29 to i32
%31 = icmp eq i32 %30, 0
br i1 %31, label LBL_11, label LBL_5
LBL_5:
%32 = load i8*, i8** %sv_5, align 8
%33 = ptrtoint i8* %32 to i64
%34 = call i32 @strlen(i8* %32)
%35 = sext i32 %34 to i64
%36 = add i64 %35, %33
%37 = load i8*, i8** %sv_5, align 8
%38 = ptrtoint i8* %37 to i64
%39 = icmp ugt i64 %36, %38
store i64 %36, i64* %storemerge7.reg2mem
store i64 %38, i64* %.pre-phi.reg2mem
store i64 %36, i64* %storemerge.lcssa.reg2mem
store i64 %33, i64* %rdi.1.reg2mem
br i1 %39, label LBL_7, label LBL_8
LBL_6:
%40 = icmp ugt i64 %41, %51
store i64 %41, i64* %storemerge7.reg2mem
store i64 %51, i64* %.pre-phi.reg2mem
store i64 %41, i64* %storemerge.lcssa.reg2mem
store i64 %45, i64* %rdi.1.reg2mem
br i1 %40, label LBL_7, label LBL_8
LBL_7:
%storemerge7.reload = load i64, i64* %storemerge7.reg2mem
%41 = add i64 %storemerge7.reload, -1
%42 = inttoptr i64 %41 to i8*
%43 = load i8, i8* %42, align 1
%44 = sext i8 %43 to i64
%45 = and i64 %44, 4294967295
%46 = call i64 @FUNC(i64 %45)
%47 = trunc i64 %46 to i32
%48 = icmp eq i32 %47, 0
%49 = icmp eq i1 %48, false
%50 = load i8*, i8** %sv_5, align 8
%51 = ptrtoint i8* %50 to i64
store i64 %51, i64* %.pre-phi.reg2mem
store i64 %storemerge7.reload, i64* %storemerge.lcssa.reg2mem
store i64 %45, i64* %rdi.1.reg2mem
br i1 %49, label LBL_6, label LBL_8
LBL_8:
%rdi.1.reload = load i64, i64* %rdi.1.reg2mem
%storemerge.lcssa.reload = load i64, i64* %storemerge.lcssa.reg2mem
%.pre-phi.reload = load i64, i64* %.pre-phi.reg2mem
%52 = sub i64 %storemerge.lcssa.reload, %.pre-phi.reload
%53 = trunc i64 %52 to i32
%54 = icmp ult i32 %53, 65535
store i64 %rdi.1.reload, i64* %rdi.2.reg2mem
br i1 %54, label LBL_10, label LBL_9
LBL_9:
call void @__assert_fail(i8* getelementptr inbounds ([12 x i8], [12 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([43 x i8], [43 x i8]* @gv_1, i64 0, i64 0), i32 66, i8* getelementptr inbounds ([10 x i8], [10 x i8]* @gv_2, i64 0, i64 0))
store i64 ptrtoint ([12 x i8]* @gv_0 to i64), i64* %rdi.2.reg2mem
br label LBL_10
LBL_10:
%rdi.2.reload = load i64, i64* %rdi.2.reg2mem
%55 = add i32 %27, %53
store i32 %55, i32* %sv_2.0.reg2mem
store i32 %53, i32* %sv_1.0.reg2mem
store i64 %rdi.2.reload, i64* %rdi.3.reg2mem
br label LBL_12
LBL_11:
store i8* null, i8** %sv_5, align 8
store i32 %27, i32* %sv_2.0.reg2mem
store i32 65535, i32* %sv_1.0.reg2mem
store i64 %28, i64* %rdi.3.reg2mem
br label LBL_12
LBL_12:
%rdi.3.reload = load i64, i64* %rdi.3.reg2mem
%sv_2.0.reload = load i32, i32* %sv_2.0.reg2mem
%56 = zext i32 %sv_2.0.reload to i64
%57 = add i64 %56, %13
%58 = add i64 %57, 2
%59 = load i64, i64* %5, align 8
%60 = icmp ult i64 %58, %59
store i64 %rdi.3.reload, i64* %rdi.6.ph.reg2mem
br i1 %60, label LBL_13, label LBL_21
LBL_13:
%sv_1.0.reload = load i32, i32* %sv_1.0.reg2mem
%61 = urem i32 %sv_1.0.reload, 65536
%62 = zext i32 %61 to i64
%63 = call i64 @FUNC(i64 %13, i64 %62)
%64 = load i8, i8* %12, align 1
%65 = zext i8 %64 to i32
%66 = add nuw nsw i32 %65, 2
%67 = call i64* @memcpy(i64* %15, i64* %16, i32 %66)
%68 = load i8*, i8** %sv_5, align 8
%69 = icmp eq i8* %68, null
br i1 %69, label LBL_15, label LBL_14
LBL_14:
%70 = load i8, i8* %17, align 1
%71 = zext i8 %70 to i64
%72 = add i64 %18, %71
%73 = inttoptr i64 %72 to i64*
%74 = bitcast i8* %68 to i64*
%75 = call i64* @memcpy(i64* %73, i64* %74, i32 %sv_1.0.reload)
br label LBL_15
LBL_15:
%76 = inttoptr i64 %57 to i8*
store i8 -1, i8* %76, align 1
%77 = add i32 %sv_2.0.reload, 1
%78 = zext i32 %77 to i64
%79 = add i64 %78, %13
%80 = inttoptr i64 %79 to i8*
store i8 -1, i8* %80, align 1
%81 = add i32 %sv_2.0.reload, 2
%82 = zext i32 %81 to i64
%83 = add i64 %82, %13
%84 = inttoptr i64 %83 to i8*
store i8 0, i8* %84, align 1
%85 = call i64 @FUNC(i64 %13)
%86 = add i64 %57, 3
store i64 %86, i64* %10, align 8
%87 = call i64 @FUNC(i64 %sv_4.0.ph.reload, i64 %13)
%88 = trunc i64 %87 to i32
%89 = or i32 %88, 2
%90 = icmp eq i32 %89, 2
store i32 %88, i32* %sv_0.0.reg2mem
store i64 %sv_4.0.ph.reload, i64* %rdi.4.reg2mem
br i1 %90, label LBL_17, label LBL_16
LBL_16:
call void @__assert_fail(i8* getelementptr inbounds ([17 x i8], [17 x i8]* @gv_3, i64 0, i64 0), i8* getelementptr inbounds ([43 x i8], [43 x i8]* @gv_1, i64 0, i64 0), i32 84, i8* getelementptr inbounds ([10 x i8], [10 x i8]* @gv_2, i64 0, i64 0))
store i32 %88, i32* %sv_0.0.reg2mem
store i64 ptrtoint ([17 x i8]* @gv_3 to i64), i64* %rdi.4.reg2mem
br label LBL_17
LBL_17:
%sv_0.0.reload = load i32, i32* %sv_0.0.reg2mem
%91 = icmp eq i32 %sv_0.0.reload, 0
%92 = icmp eq i1 %91, false
br i1 %92, label LBL_19, label LBL_18
LBL_18:
%93 = call i64 @FUNC(i64 %13)
%sext = mul i64 %93, 4294967296
%94 = ashr exact i64 %sext, 32
%95 = add i64 %94, %13
%96 = inttoptr i64 %95 to i8*
%97 = call i64 @FUNC(i64 %sv_4.0.ph.reload)
%sext3 = mul i64 %97, 4294967296
%98 = ashr exact i64 %sext3, 32
%99 = add i64 %98, %sv_4.0.ph.reload
store i64 %99, i64* %sv_4.0.ph.reg2mem
store i8* %96, i8** %sv_3.0.ph.reg2mem
store i64 %sv_4.0.ph.reload, i64* %rdi.5.ph.reg2mem
br label LBL_1
LBL_19:
%rdi.4.reload = load i64, i64* %rdi.4.reg2mem
%100 = icmp eq i32 %sv_0.0.reload, 2
%101 = icmp eq i1 %100, false
store i64 %rdi.4.reload, i64* %rdi.5.reg2mem
store i64 0, i64* %rax.0.reg2mem
br i1 %101, label LBL_20, label LBL_23
LBL_20:
%102 = load i8, i8* %12, align 1
%103 = icmp eq i8 %102, 0
%104 = icmp eq i1 %103, false
store i64 1, i64* %rax.0.reg2mem
br i1 %104, label LBL_2, label LBL_23
LBL_21:
%rdi.6.ph.reload = load i64, i64* %rdi.6.ph.reg2mem
store i64 0, i64* %10, align 8
%105 = add i64 %rdi.6.ph.reload, 2
%106 = load i64, i64* %5, align 8
%107 = icmp ult i64 %105, %106
%108 = icmp eq i1 %107, false
store i64 0, i64* %rax.0.reg2mem
br i1 %108, label LBL_23, label LBL_22
LBL_22:
%109 = inttoptr i64 %rdi.6.ph.reload to i8*
store i8 -1, i8* %109, align 1
%110 = add i64 %rdi.6.ph.reload, 1
%111 = inttoptr i64 %110 to i8*
store i8 -1, i8* %111, align 1
%112 = inttoptr i64 %105 to i8*
store i8 0, i8* %112, align 1
store i64 0, i64* %rax.0.reg2mem
br label LBL_23
LBL_23:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %rdi.6.ph.reload, { 0, 2, 1 }
uselistorder i32 %sv_2.0.reload, { 2, 1, 0 }
uselistorder i64 %51, { 0, 2, 1 }
uselistorder i64 %45, { 0, 2, 1 }
uselistorder i64 %41, { 3, 2, 1, 0 }
uselistorder i64 %14, { 2, 0, 1 }
uselistorder i64 %13, { 0, 4, 6, 7, 1, 2, 8, 3, 9, 5, 10 }
uselistorder i8* %12, { 2, 0, 1 }
uselistorder i64 %11, { 1, 0, 2 }
uselistorder i64 %sv_4.0.ph.reload, { 2, 7, 4, 0, 3, 1, 6, 5 }
uselistorder i8** %sv_5, { 4, 3, 2, 0, 1, 5 }
uselistorder i64* %sv_4.0.ph.reg2mem, { 2, 0, 1 }
uselistorder i8** %sv_3.0.ph.reg2mem, { 2, 0, 1 }
uselistorder i64* %rdi.5.ph.reg2mem, { 2, 0, 1 }
uselistorder i64* %storemerge7.reg2mem, { 0, 2, 1 }
uselistorder i32* %sv_2.0.reg2mem, { 0, 2, 1 }
uselistorder i32* %sv_1.0.reg2mem, { 0, 2, 1 }
uselistorder i64* %rdi.3.reg2mem, { 0, 2, 1 }
uselistorder i64* %rdi.5.reg2mem, { 2, 0, 1 }
uselistorder i64* %rdi.6.ph.reg2mem, { 0, 2, 1 }
uselistorder i64* %rax.0.reg2mem, { 0, 4, 3, 1, 2 }
uselistorder i64 1, { 2, 0, 1, 3 }
uselistorder i64 (i64)* @vry_len, { 1, 0 }
uselistorder [17 x i8]* @gv_3, { 1, 0 }
uselistorder i8 0, { 1, 2, 0 }
uselistorder i8 -1, { 2, 3, 0, 1 }
uselistorder i64* (i64*, i64*, i32)* @memcpy, { 1, 0 }
uselistorder i32 2, { 2, 0, 1, 3, 4 }
uselistorder void (i8*, i8*, i32, i8*)* @__assert_fail, { 1, 0 }
uselistorder [12 x i8]* @gv_0, { 1, 0 }
uselistorder i1 false, { 4, 5, 0, 1, 2, 3 }
uselistorder i64 (i64, i64)* @vry_cmp, { 1, 0 }
uselistorder i64 2, { 2, 0, 1, 3 }
uselistorder label LBL_23, { 3, 2, 0, 1 }
uselistorder label LBL_21, { 1, 0 }
uselistorder label LBL_20, { 1, 0 }
uselistorder label LBL_7, { 1, 0 }
}
|
0
|
CompRealVul
|
vfio_calxeda_xgmac_class_init_14490
|
vfio_calxeda_xgmac_class_init
|
define i64 @FUNC(i64* %arg1, i64 %arg2) local_unnamed_addr {
LBL_0:
%0 = ptrtoint i64* %arg1 to i64
store i64 4198662, i64* %arg1, align 8
%1 = add i64 %0, 8
%2 = inttoptr i64 %1 to i64*
store i64 ptrtoint ([19 x i8]* @gv_0 to i64), i64* %2, align 8
%3 = add i64 %0, 16
%4 = inttoptr i64 %3 to i64*
store i64 ptrtoint (i64* @gv_1 to i64), i64* %4, align 8
ret i64 %0
uselistorder i64 %0, { 1, 0, 2 }
}
|
1
|
CompRealVul
|
slurm_free_node_info_members_18463
|
slurm_free_node_info_members
|
define i64 @FUNC(i64 %arg1) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%0 = icmp eq i64 %arg1, 0
br i1 %0, label LBL_2, label LBL_1
LBL_1:
%1 = call i64 @FUNC(i64 %arg1)
%2 = add i64 %arg1, 8
%3 = inttoptr i64 %2 to i64*
%4 = load i64, i64* %3, align 8
%5 = call i64 @FUNC(i64 %4)
%6 = add i64 %arg1, 16
%7 = inttoptr i64 %6 to i64*
%8 = load i64, i64* %7, align 8
%9 = call i64 @FUNC(i64 %8)
%10 = add i64 %arg1, 24
%11 = inttoptr i64 %10 to i64*
%12 = load i64, i64* %11, align 8
%13 = call i64 @FUNC(i64 %12)
%14 = add i64 %arg1, 32
%15 = inttoptr i64 %14 to i64*
%16 = load i64, i64* %15, align 8
%17 = call i64 @FUNC(i64 %16)
%18 = add i64 %arg1, 40
%19 = inttoptr i64 %18 to i64*
%20 = load i64, i64* %19, align 8
%21 = call i64 @FUNC(i64 %20)
%22 = add i64 %arg1, 48
%23 = inttoptr i64 %22 to i64*
%24 = load i64, i64* %23, align 8
%25 = call i64 @FUNC(i64 %24)
%26 = add i64 %arg1, 56
%27 = inttoptr i64 %26 to i64*
%28 = load i64, i64* %27, align 8
%29 = call i64 @FUNC(i64 %28)
%30 = add i64 %arg1, 64
%31 = inttoptr i64 %30 to i64*
%32 = load i64, i64* %31, align 8
%33 = call i64 @FUNC(i64 %32)
%34 = add i64 %arg1, 72
%35 = inttoptr i64 %34 to i64*
%36 = load i64, i64* %35, align 8
%37 = call i64 @FUNC(i64 %36)
%38 = add i64 %arg1, 80
%39 = inttoptr i64 %38 to i64*
%40 = load i64, i64* %39, align 8
%41 = call i64 @FUNC(i64 %40)
%42 = add i64 %arg1, 88
%43 = inttoptr i64 %42 to i64*
%44 = load i64, i64* %43, align 8
%45 = call i64 @FUNC(i64 %44)
%46 = add i64 %arg1, 96
%47 = inttoptr i64 %46 to i64*
%48 = load i64, i64* %47, align 8
%49 = call i64 @FUNC(i64 %48)
store i64 0, i64* %47, align 8
%50 = add i64 %arg1, 104
%51 = inttoptr i64 %50 to i64*
%52 = load i64, i64* %51, align 8
%53 = call i64 @FUNC(i64 %52)
store i64 %53, i64* %rax.0.reg2mem
br label LBL_2
LBL_2:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 (i64)* @xfree, { 10, 9, 8, 7, 6, 5, 4, 3, 2, 1, 0 }
uselistorder i32 1, { 3, 2, 1, 0 }
uselistorder i64 %arg1, { 0, 2, 1, 4, 3, 6, 5, 8, 7, 10, 9, 12, 11, 13, 14 }
}
|
1
|
CompRealVul
|
mptsas_fetch_request_19249
|
mptsas_fetch_request
|
define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%rax.0.reg2mem = alloca i64
%.reg2mem = alloca i32
%1 = load i64, i64* %0
%2 = ptrtoint i64* %arg1 to i64
%sv_0 = alloca i64, align 8
%sv_1 = alloca i64, align 8
%3 = trunc i64 %1 to i32
%4 = icmp eq i32 %3, 1
br i1 %4, label LBL_2, label LBL_1
LBL_1:
%5 = call i64 @FUNC(i64 %2, i64 2)
store i64 %5, i64* %rax.0.reg2mem
br label LBL_10
LBL_2:
%6 = bitcast i64* %sv_1 to i32*
%7 = add i64 %2, 8
%8 = inttoptr i64 %7 to i64*
%9 = load i64, i64* %8, align 8
%10 = call i64 @FUNC(i64 %2, i64 %9, i64* nonnull %sv_1, i64 8)
%11 = load i32, i32* %6, align 8
%12 = icmp ult i32 %11, 4
br i1 %12, label LBL_3, label LBL_9
LBL_3:
%13 = sext i32 %11 to i64
%14 = mul i64 %13, 4
%15 = add i64 %14, ptrtoint (i32** @gv_0 to i64)
%16 = inttoptr i64 %15 to i32*
%17 = load i32, i32* %16, align 4
%18 = icmp eq i32 %17, 0
store i32 %11, i32* %.reg2mem
br i1 %18, label LBL_7, label LBL_4
LBL_4:
%19 = icmp slt i32 %17, 4097
br i1 %19, label LBL_6, label LBL_5
LBL_5:
call void @__assert_fail(i8* getelementptr inbounds ([32 x i8], [32 x i8]* @gv_1, i64 0, i64 0), i8* getelementptr inbounds ([54 x i8], [54 x i8]* @gv_2, i64 0, i64 0), i32 63, i8* getelementptr inbounds ([21 x i8], [21 x i8]* @gv_3, i64 0, i64 0))
br label LBL_6
LBL_6:
%20 = add i32 %17, -8
%21 = zext i32 %20 to i64
%22 = add i64 %9, 8
%23 = call i64 @FUNC(i64 %2, i64 %22, i64* nonnull %sv_0, i64 %21)
%.pre = load i32, i32* %6, align 8
store i32 %.pre, i32* %.reg2mem
br label LBL_7
LBL_7:
%.reload = load i32, i32* %.reg2mem
%24 = icmp eq i32 %.reload, 1
%25 = icmp eq i1 %24, false
br i1 %25, label LBL_9, label LBL_8
LBL_8:
%26 = call i64 @FUNC(i64 %2, i64* nonnull %sv_1, i64 %9)
store i64 %26, i64* %rax.0.reg2mem
br label LBL_10
LBL_9:
%27 = call i64 @FUNC(i64 %2, i64* nonnull %sv_1)
store i64 %27, i64* %rax.0.reg2mem
br label LBL_10
LBL_10:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %9, { 1, 0, 2 }
uselistorder i64* %sv_1, { 1, 2, 3, 0 }
uselistorder i64 %2, { 2, 1, 0, 3, 4, 5 }
uselistorder i32* %.reg2mem, { 0, 2, 1 }
uselistorder i64* %rax.0.reg2mem, { 0, 3, 2, 1 }
uselistorder i64 (i64, i64, i64*, i64)* @pci_dma_read, { 1, 0 }
uselistorder i64 8, { 1, 0, 2 }
uselistorder label LBL_9, { 1, 0 }
}
|
1
|
CompRealVul
|
ibwdt_set_heartbeat_5690
|
ibwdt_set_heartbeat
|
define i64 @FUNC(i64 %arg1) local_unnamed_addr {
LBL_0:
%storemerge.reg2mem = alloca i64
%storemerge3.lcssa.reg2mem = alloca i32
%storemerge35.reg2mem = alloca i32
%0 = trunc i64 %arg1 to i32
%1 = icmp ult i32 %0, 31
store i64 4294967274, i64* %storemerge.reg2mem
br i1 %1, label LBL_1, label LBL_5
LBL_1:
%sext = mul i64 %arg1, 4294967296
%2 = ashr exact i64 %sext, 32
store i32 15, i32* %storemerge35.reg2mem
br label LBL_2
LBL_2:
%storemerge35.reload = load i32, i32* %storemerge35.reg2mem
%3 = sext i32 %storemerge35.reload to i64
%4 = mul i64 %3, 4
%5 = add i64 %4, ptrtoint (i32** @gv_0 to i64)
%6 = inttoptr i64 %5 to i32*
%7 = load i32, i32* %6, align 4
%8 = zext i32 %7 to i64
%9 = icmp sgt i64 %2, %8
store i32 %storemerge35.reload, i32* %storemerge3.lcssa.reg2mem
br i1 %9, label LBL_3, label LBL_4
LBL_3:
%10 = add i32 %storemerge35.reload, -1
%11 = icmp slt i32 %10, 0
%12 = icmp eq i1 %11, false
store i32 %10, i32* %storemerge35.reg2mem
store i32 %10, i32* %storemerge3.lcssa.reg2mem
br i1 %12, label LBL_2, label LBL_4
LBL_4:
%storemerge3.lcssa.reload = load i32, i32* %storemerge3.lcssa.reg2mem
store i32 %storemerge3.lcssa.reload, i32* inttoptr (i64 4210820 to i32*), align 4
store i64 0, i64* %storemerge.reg2mem
br label LBL_5
LBL_5:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
ret i64 %storemerge.reload
uselistorder i32 %storemerge35.reload, { 1, 0, 2 }
uselistorder i32* %storemerge35.reg2mem, { 1, 0, 2 }
uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 }
uselistorder i32 1, { 2, 1, 0 }
uselistorder label LBL_5, { 1, 0 }
uselistorder label LBL_4, { 1, 0 }
uselistorder label LBL_2, { 1, 0 }
}
|
0
|
CompRealVul
|
nsc_encode_sse2_11265
|
nsc_encode_sse2
|
define i64 @FUNC(i32* %arg1, i64* %arg2, i32 %arg3) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%rax.0.reg2mem = alloca i64
%1 = load i64, i64* %0
%2 = ptrtoint i64* %arg2 to i64
%3 = ptrtoint i32* %arg1 to i64
%4 = call i64 @FUNC(i64 %3, i64 %2, i32 %arg3)
%5 = trunc i64 %1 to i32
%6 = and i64 %1, 4294967295
%7 = icmp slt i32 %5, 1
store i64 %6, i64* %rax.0.reg2mem
br i1 %7, label LBL_2, label LBL_1
LBL_1:
%8 = call i64 @FUNC(i64 %3)
store i64 %8, i64* %rax.0.reg2mem
br label LBL_2
LBL_2:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %1, { 1, 0 }
}
|
1
|
CompRealVul
|
parse_new_connection_id_frame_19282
|
parse_new_connection_id_frame
|
define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%storemerge.reg2mem = alloca i64
%sv_0.0.reg2mem = alloca i64
%sv_1.0.reg2mem = alloca i64
%0 = ptrtoint i64* %arg1 to i64
%1 = add i64 %0, 8
%2 = inttoptr i64 %1 to i64*
%3 = load i64, i64* %2, align 8
%4 = call i64* @malloc(i32 56)
%5 = ptrtoint i64* %4 to i64
%6 = icmp eq i64* %4, null
%7 = icmp eq i1 %6, false
br i1 %7, label LBL_2, label LBL_1
LBL_1:
%8 = call i32 @puts(i8* getelementptr inbounds ([56 x i8], [56 x i8]* @gv_0, i64 0, i64 0))
%9 = call i64 @FUNC(i64 %0, i64 %5, i32 1, i32 1)
store i64 0, i64* %storemerge.reg2mem
br label LBL_10
LBL_2:
%10 = call i64 @FUNC(i64 %0)
%11 = add i64 %10, %0
%12 = call i64 @FUNC(i64 %11, i64 %3, i64 %5)
%13 = icmp eq i64 %12, 0
br i1 %13, label LBL_7, label LBL_3
LBL_3:
%14 = add i64 %5, 8
%15 = call i64 @FUNC(i64 %12, i64 %3, i64 %14)
%16 = icmp eq i64 %15, 0
br i1 %16, label LBL_7, label LBL_4
LBL_4:
%17 = add i64 %5, 16
%18 = call i64 @FUNC(i64 %15, i64 %3, i64 %17)
%19 = icmp eq i64 %18, 0
br i1 %19, label LBL_7, label LBL_5
LBL_5:
%20 = inttoptr i64 %17 to i8*
%21 = load i8, i8* %20, align 1
%22 = icmp ult i8 %21, 21
br i1 %22, label LBL_6, label LBL_7
LBL_6:
%23 = zext i8 %21 to i64
%24 = add i64 %18, 16
%25 = add i64 %24, %23
%26 = icmp ult i64 %3, %25
%storemerge1 = select i1 %26, i64 0, i64 %18
%27 = icmp eq i64 %storemerge1, 0
%28 = icmp eq i1 %27, false
br i1 %28, label LBL_8, label LBL_7
LBL_7:
%29 = call i64 @FUNC(i64 %0, i64 1, i64 2)
call void @free(i64* %4)
store i64 0, i64* %sv_1.0.reg2mem
store i64 0, i64* %sv_0.0.reg2mem
br label LBL_9
LBL_8:
%30 = add i64 %5, 17
%31 = inttoptr i64 %30 to i64*
%32 = inttoptr i64 %storemerge1 to i64*
%33 = zext i8 %21 to i32
%34 = call i64* @memcpy(i64* %31, i64* %32, i32 %33)
%35 = load i8, i8* %20, align 1
%36 = zext i8 %35 to i64
%37 = add i64 %storemerge1, %36
%38 = add i64 %5, 37
%39 = add i64 %37, 8
%40 = inttoptr i64 %39 to i64*
%41 = load i64, i64* %40, align 8
%42 = inttoptr i64 %37 to i64*
%43 = load i64, i64* %42, align 8
%44 = inttoptr i64 %38 to i64*
store i64 %43, i64* %44, align 8
%45 = add i64 %5, 45
%46 = inttoptr i64 %45 to i64*
store i64 %41, i64* %46, align 8
%47 = add i64 %37, 16
store i64 %47, i64* %sv_1.0.reg2mem
store i64 %5, i64* %sv_0.0.reg2mem
br label LBL_9
LBL_9:
%sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem
%sv_1.0.reload = load i64, i64* %sv_1.0.reg2mem
%48 = call i64 @FUNC(i64 %0, i64 %sv_0.0.reload, i32 1, i32 1)
store i64 %sv_1.0.reload, i64* %storemerge.reg2mem
br label LBL_10
LBL_10:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
ret i64 %storemerge.reload
uselistorder i64 %37, { 2, 1, 0 }
uselistorder i64 %18, { 1, 0, 2 }
uselistorder i64 %5, { 0, 2, 3, 4, 5, 6, 7, 1 }
uselistorder i64 %0, { 2, 3, 0, 4, 1, 5 }
uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 }
uselistorder i64 1, { 1, 0 }
uselistorder i64 (i64, i64, i64)* @picoquic_frames_varint_decode, { 1, 0 }
uselistorder i64 (i64, i64, i32, i32)* @protoop_save_outputs, { 1, 0 }
uselistorder label LBL_7, { 1, 0, 2, 3, 4 }
}
|
1
|
CompRealVul
|
escape_xml_19097
|
escape_xml
|
define i64 @FUNC(i64 %arg1) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%rax.0.reg2mem = alloca i64
%.reg2mem18 = alloca i8*
%sv_0.0.reg2mem = alloca i64
%.reg2mem16 = alloca i8*
%.reg2mem14 = alloca i8
%.reg2mem12 = alloca i8*
%sv_1.02.reg2mem = alloca i64
%sv_0.13.reg2mem = alloca i64
%.reg2mem10 = alloca i8*
%.reg2mem8 = alloca i8
%.reg2mem = alloca i8*
%1 = load i64, i64* %0
%sv_2 = alloca i8*, align 8
%2 = trunc i64 %1 to i8
%3 = icmp eq i8 %2, 0
%4 = icmp eq i1 %3, false
store i64 ptrtoint ([13 x i8]* @gv_0 to i64), i64* %rax.0.reg2mem
br i1 %4, label LBL_1, label LBL_15
LBL_1:
%5 = load i8*, i8** @gv_1, align 8
%6 = ptrtoint i8* %5 to i64
%7 = bitcast i8** %sv_2 to i64*
store i64 %6, i64* %7, align 8
%8 = inttoptr i64 %arg1 to i8*
%9 = load i8, i8* %8, align 1
%10 = icmp eq i8 %9, 0
%11 = icmp eq i1 %10, false
store i8* %5, i8** %.reg2mem
store i8 %9, i8* %.reg2mem8
store i8* %8, i8** %.reg2mem10
store i64 0, i64* %sv_0.13.reg2mem
store i64 %arg1, i64* %sv_1.02.reg2mem
store i8* %5, i8** %.reg2mem18
br i1 %11, label LBL_2, label LBL_14
LBL_2:
%sv_1.02.reload = load i64, i64* %sv_1.02.reg2mem
%sv_0.13.reload = load i64, i64* %sv_0.13.reg2mem
%.reload9 = load i8, i8* %.reg2mem8
%.reload = load i8*, i8** %.reg2mem
%12 = add i64 %sv_0.13.reload, 8
%13 = load i32, i32* @gv_2, align 4
%14 = sext i32 %13 to i64
%15 = icmp ugt i64 %12, %14
store i8* %.reload, i8** %.reg2mem12
store i8 %.reload9, i8* %.reg2mem14
br i1 %15, label LBL_3, label LBL_6
LBL_3:
%16 = add i32 %13, 128
store i32 %16, i32* @gv_2, align 4
%17 = load i8*, i8** @gv_1, align 8
%18 = bitcast i8* %17 to i64*
%19 = call i64* @realloc(i64* %18, i32 %16)
%20 = icmp eq i64* %19, null
%21 = icmp eq i1 %20, false
br i1 %21, label LBL_5, label LBL_4
LBL_4:
%22 = load i8*, i8** @gv_1, align 8
%23 = bitcast i8* %22 to i64*
call void @free(i64* %23)
store i8* null, i8** @gv_1, align 8
store i32 0, i32* @gv_2, align 4
store i64 ptrtoint ([22 x i8]* @gv_3 to i64), i64* %rax.0.reg2mem
br label LBL_15
LBL_5:
%.reload11 = load i8*, i8** %.reg2mem10
%24 = ptrtoint i64* %19 to i64
%25 = add i64 %sv_0.13.reload, %24
%26 = inttoptr i64 %25 to i8*
store i8* %26, i8** %sv_2, align 8
%27 = bitcast i64* %19 to i8*
store i8* %27, i8** @gv_1, align 8
%.pre = load i8, i8* %.reload11, align 1
store i8* %26, i8** %.reg2mem12
store i8 %.pre, i8* %.reg2mem14
br label LBL_6
LBL_6:
%.reload15 = load i8, i8* %.reg2mem14
%.reload13 = load i8*, i8** %.reg2mem12
%28 = icmp eq i8 %.reload15, 62
br i1 %28, label LBL_11, label LBL_7
LBL_7:
%29 = icmp sgt i8 %.reload15, 62
br i1 %29, label LBL_12, label LBL_8
LBL_8:
switch i8 %.reload15, label LBL_12 [
i8 38, label LBL_9
i8 60, label LBL_10
]
LBL_9:
%30 = ptrtoint i8* %.reload13 to i64
%31 = bitcast i8* %.reload13 to i32*
store i32 1886216486, i32* %31, align 4
%32 = add i64 %30, 4
%33 = inttoptr i64 %32 to i16*
store i16 59, i16* %33, align 2
%34 = load i8*, i8** %sv_2, align 8
%35 = call i32 @strlen(i8* %34)
%36 = sext i32 %35 to i64
%37 = add i64 %sv_0.13.reload, -1
%38 = add i64 %37, %36
%39 = load i8*, i8** @gv_1, align 8
%40 = ptrtoint i8* %39 to i64
%41 = add i64 %38, %40
%42 = inttoptr i64 %41 to i8*
store i8* %42, i8** %sv_2, align 8
store i8* %42, i8** %.reg2mem16
store i64 %38, i64* %sv_0.0.reg2mem
br label LBL_13
LBL_10:
%43 = ptrtoint i8* %.reload13 to i64
%44 = bitcast i8* %.reload13 to i32*
store i32 997485606, i32* %44, align 4
%45 = add i64 %43, 4
%46 = inttoptr i64 %45 to i8*
store i8 0, i8* %46, align 1
%47 = load i8*, i8** %sv_2, align 8
%48 = call i32 @strlen(i8* %47)
%49 = sext i32 %48 to i64
%50 = add i64 %sv_0.13.reload, -1
%51 = add i64 %50, %49
%52 = load i8*, i8** @gv_1, align 8
%53 = ptrtoint i8* %52 to i64
%54 = add i64 %51, %53
%55 = inttoptr i64 %54 to i8*
store i8* %55, i8** %sv_2, align 8
store i8* %55, i8** %.reg2mem16
store i64 %51, i64* %sv_0.0.reg2mem
br label LBL_13
LBL_11:
%56 = ptrtoint i8* %.reload13 to i64
%57 = bitcast i8* %.reload13 to i32*
store i32 997484326, i32* %57, align 4
%58 = add i64 %56, 4
%59 = inttoptr i64 %58 to i8*
store i8 0, i8* %59, align 1
%60 = load i8*, i8** %sv_2, align 8
%61 = call i32 @strlen(i8* %60)
%62 = sext i32 %61 to i64
%63 = add i64 %sv_0.13.reload, -1
%64 = add i64 %63, %62
%65 = load i8*, i8** @gv_1, align 8
%66 = ptrtoint i8* %65 to i64
%67 = add i64 %64, %66
%68 = inttoptr i64 %67 to i8*
store i8* %68, i8** %sv_2, align 8
store i8* %68, i8** %.reg2mem16
store i64 %64, i64* %sv_0.0.reg2mem
br label LBL_13
LBL_12:
store i8 %.reload15, i8* %.reload13, align 1
%.pre6 = load i8*, i8** %sv_2, align 8
store i8* %.pre6, i8** %.reg2mem16
store i64 %sv_0.13.reload, i64* %sv_0.0.reg2mem
br label LBL_13
LBL_13:
%sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem
%.reload17 = load i8*, i8** %.reg2mem16
%69 = add i64 %sv_0.0.reload, 1
%70 = ptrtoint i8* %.reload17 to i64
%71 = add i64 %70, 1
%72 = inttoptr i64 %71 to i8*
store i8* %72, i8** %sv_2, align 8
%73 = add i64 %sv_1.02.reload, 1
%74 = inttoptr i64 %73 to i8*
%75 = load i8, i8* %74, align 1
%76 = icmp eq i8 %75, 0
%77 = icmp eq i1 %76, false
store i8* %72, i8** %.reg2mem
store i8 %75, i8* %.reg2mem8
store i8* %74, i8** %.reg2mem10
store i64 %69, i64* %sv_0.13.reg2mem
store i64 %73, i64* %sv_1.02.reg2mem
store i8* %72, i8** %.reg2mem18
br i1 %77, label LBL_2, label LBL_14
LBL_14:
%.reload19 = load i8*, i8** %.reg2mem18
store i8 0, i8* %.reload19, align 1
%78 = load i8*, i8** @gv_1, align 8
%79 = ptrtoint i8* %78 to i64
store i64 %79, i64* %rax.0.reg2mem
br label LBL_15
LBL_15:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i8* %.reload13, { 2, 0, 1, 6, 5, 4, 3 }
uselistorder i8 %.reload15, { 3, 0, 1, 2 }
uselistorder i64* %19, { 0, 2, 1 }
uselistorder i64 %sv_0.13.reload, { 0, 2, 4, 3, 5, 1 }
uselistorder i8** %sv_2, { 9, 0, 8, 7, 6, 5, 4, 3, 2, 1 }
uselistorder i8** %.reg2mem, { 2, 0, 1 }
uselistorder i8* %.reg2mem8, { 2, 0, 1 }
uselistorder i8** %.reg2mem10, { 2, 0, 1 }
uselistorder i64* %sv_0.13.reg2mem, { 2, 0, 1 }
uselistorder i64* %sv_1.02.reg2mem, { 2, 0, 1 }
uselistorder i8** %.reg2mem16, { 0, 3, 4, 1, 2 }
uselistorder i64* %sv_0.0.reg2mem, { 0, 3, 4, 1, 2 }
uselistorder i64* %rax.0.reg2mem, { 0, 2, 3, 1 }
uselistorder i64 -1, { 0, 2, 1 }
uselistorder i32 (i8*)* @strlen, { 2, 0, 1 }
uselistorder i32* @gv_2, { 2, 1, 0 }
uselistorder i8** @gv_1, { 8, 7, 6, 5, 4, 3, 2, 1, 0 }
uselistorder i1 false, { 2, 1, 0, 3 }
uselistorder i8 0, { 3, 4, 1, 2, 0, 5 }
uselistorder i32 1, { 12, 11, 10, 9, 8, 7, 6, 5, 4, 3, 2, 1, 0 }
uselistorder label LBL_15, { 2, 1, 0 }
uselistorder label LBL_6, { 1, 0 }
uselistorder label LBL_2, { 1, 0 }
}
|
1
|
CompRealVul
|
memory_map_init_15545
|
memory_map_init
|
define i64 @FUNC() local_unnamed_addr {
LBL_0:
%0 = call i64 @FUNC(i64 16)
store i64 %0, i64* @gv_0, align 8
%1 = call i64 @FUNC(i64 %0, i8* getelementptr inbounds ([7 x i8], [7 x i8]* @gv_1, i64 0, i64 0), i64 -1)
%2 = load i64, i64* @gv_0, align 8
%3 = call i64 @FUNC(i64 %2)
ret i64 %3
}
|
1
|
CompRealVul
|
virtio_net_handle_ctrl_14347
|
virtio_net_handle_ctrl
|
define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%1 = alloca i32
%2 = alloca i8
%.lcssa.reg2mem = alloca i64
%3 = ptrtoint i64* %arg2 to i64
%4 = load i8, i8* %2
%sv_0 = alloca i8, align 1
%sv_1 = alloca i32, align 4
%sv_2 = alloca i64, align 8
%5 = load i64, i64* %0
%6 = load i32, i32* %1
%sv_3 = alloca i64, align 8
%7 = load i32, i32* %1
%sv_4 = alloca i32, align 4
store i32 0, i32* %sv_4, align 4
%8 = call i64 @FUNC(i64 %3, i64* nonnull %sv_3)
%9 = trunc i64 %8 to i32
%10 = icmp eq i32 %9, 0
%11 = icmp eq i1 %10, false
store i64 %8, i64* %.lcssa.reg2mem
br i1 %11, label LBL_1, label LBL_22
LBL_1:
%12 = ptrtoint i64* %arg1 to i64
%13 = zext i32 %7 to i64
%14 = zext i32 %6 to i64
%15 = bitcast i8* %sv_0 to i64*
%16 = zext i8 %4 to i64
br label LBL_2
LBL_2:
%17 = load i64, i64* %sv_3, align 8
%18 = call i64 @FUNC(i64 %17, i64 %13)
%19 = icmp ult i64 %18, 4
br i1 %19, label LBL_4, label LBL_3
LBL_3:
%20 = call i64 @FUNC(i64 %5, i64 %14)
%21 = icmp ult i64 %20, 2
br i1 %21, label LBL_4, label LBL_5
LBL_4:
%22 = call i64 @FUNC(i8* getelementptr inbounds ([32 x i8], [32 x i8]* @gv_0, i64 0, i64 0))
call void @exit(i32 1)
unreachable
LBL_5:
%23 = call i64 @FUNC(i64 %5, i32 %6, i64 0, i64* nonnull %15, i64 2)
%24 = call i64 @FUNC(i64* nonnull %sv_2, i32* nonnull %sv_1, i64 2)
%25 = icmp eq i64 %23, 2
br i1 %25, label LBL_7, label LBL_6
LBL_6:
store i32 0, i32* %sv_4, align 4
br label LBL_19
LBL_7:
%26 = load i8, i8* %sv_0, align 1
%27 = icmp eq i8 %26, 1
%28 = icmp eq i1 %27, false
br i1 %28, label LBL_9, label LBL_8
LBL_8:
%29 = load i32, i32* %sv_1, align 4
%30 = load i64, i64* %sv_2, align 8
%31 = call i64 @FUNC(i64 %12, i64 %16, i64 %30, i32 %29)
%32 = trunc i64 %31 to i32
store i32 %32, i32* %sv_4, align 4
br label LBL_19
LBL_9:
%33 = icmp eq i8 %26, 2
%34 = icmp eq i1 %33, false
br i1 %34, label LBL_11, label LBL_10
LBL_10:
%35 = load i32, i32* %sv_1, align 4
%36 = load i64, i64* %sv_2, align 8
%37 = call i64 @FUNC(i64 %12, i64 %16, i64 %36, i32 %35)
%38 = trunc i64 %37 to i32
store i32 %38, i32* %sv_4, align 4
br label LBL_19
LBL_11:
%39 = icmp eq i8 %26, 3
%40 = icmp eq i1 %39, false
br i1 %40, label LBL_13, label LBL_12
LBL_12:
%41 = load i32, i32* %sv_1, align 4
%42 = load i64, i64* %sv_2, align 8
%43 = call i64 @FUNC(i64 %12, i64 %16, i64 %42, i32 %41)
%44 = trunc i64 %43 to i32
store i32 %44, i32* %sv_4, align 4
br label LBL_19
LBL_13:
%45 = icmp eq i8 %26, 4
%46 = icmp eq i1 %45, false
br i1 %46, label LBL_15, label LBL_14
LBL_14:
%47 = load i32, i32* %sv_1, align 4
%48 = load i64, i64* %sv_2, align 8
%49 = call i64 @FUNC(i64 %12, i64 %16, i64 %48, i32 %47)
%50 = trunc i64 %49 to i32
store i32 %50, i32* %sv_4, align 4
br label LBL_19
LBL_15:
%51 = icmp eq i8 %26, 5
%52 = icmp eq i1 %51, false
br i1 %52, label LBL_17, label LBL_16
LBL_16:
%53 = load i32, i32* %sv_1, align 4
%54 = load i64, i64* %sv_2, align 8
%55 = call i64 @FUNC(i64 %12, i64 %16, i64 %54, i32 %53)
%56 = trunc i64 %55 to i32
store i32 %56, i32* %sv_4, align 4
br label LBL_19
LBL_17:
%57 = icmp eq i8 %26, 6
%58 = icmp eq i1 %57, false
br i1 %58, label LBL_19, label LBL_18
LBL_18:
%59 = load i32, i32* %sv_1, align 4
%60 = load i64, i64* %sv_2, align 8
%61 = call i64 @FUNC(i64 %12, i64 %16, i64 %60, i32 %59)
%62 = trunc i64 %61 to i32
store i32 %62, i32* %sv_4, align 4
br label LBL_19
LBL_19:
%63 = load i64, i64* %sv_3, align 8
%64 = call i64 @FUNC(i64 %63, i32 %7, i64 0, i32* nonnull %sv_4, i64 4)
%65 = icmp eq i64 %64, 4
br i1 %65, label LBL_21, label LBL_20
LBL_20:
call void @__assert_fail(i8* getelementptr inbounds ([20 x i8], [20 x i8]* @gv_1, i64 0, i64 0), i8* getelementptr inbounds ([56 x i8], [56 x i8]* @gv_2, i64 0, i64 0), i32 147, i8* getelementptr inbounds ([23 x i8], [23 x i8]* @gv_3, i64 0, i64 0))
br label LBL_21
LBL_21:
%66 = call i64 @FUNC(i64 %3, i64* nonnull %sv_3, i64 4)
%67 = call i64 @FUNC(i64 %12, i64 %3)
%68 = call i64 @FUNC(i64 %3, i64* nonnull %sv_3)
%69 = trunc i64 %68 to i32
%70 = icmp eq i32 %69, 0
%71 = icmp eq i1 %70, false
store i64 %68, i64* %.lcssa.reg2mem
br i1 %71, label LBL_2, label LBL_22
LBL_22:
%.lcssa.reload = load i64, i64* %.lcssa.reg2mem
ret i64 %.lcssa.reload
uselistorder i64 %12, { 6, 5, 4, 3, 2, 1, 0 }
uselistorder i64* %sv_3, { 1, 2, 3, 4, 0 }
uselistorder i64* %sv_2, { 1, 2, 3, 4, 5, 6, 0 }
uselistorder i32* %sv_1, { 1, 2, 3, 4, 5, 6, 0 }
uselistorder i64 %3, { 3, 2, 1, 0 }
uselistorder i32* %1, { 1, 0 }
uselistorder i64 2, { 0, 2, 3, 1 }
uselistorder i64 4, { 2, 0, 3, 1 }
uselistorder i64 (i64, i64)* @iov_size, { 1, 0 }
uselistorder i1 false, { 7, 1, 2, 3, 4, 5, 6, 0 }
uselistorder i64 (i64, i64*)* @virtqueue_pop, { 1, 0 }
uselistorder i32 0, { 3, 1, 0, 2 }
uselistorder label LBL_2, { 1, 0 }
}
|
1
|
CompRealVul
|
nbd_client_thread_15989
|
nbd_client_thread
|
define i64 @FUNC(i64 %arg1) local_unnamed_addr {
LBL_0:
%storemerge.reg2mem = alloca i64
%sv_0 = alloca i64, align 8
%sv_1 = alloca i32, align 4
%sv_2 = alloca i64, align 8
%sv_3 = alloca i64, align 8
%0 = load i64, i64* bitcast ([2 x i8*]* @gv_0 to i64*), align 8
%1 = call i64 @FUNC(i64 %0)
%2 = trunc i64 %1 to i32
%3 = icmp slt i32 %2, 0
br i1 %3, label LBL_10, label LBL_1
LBL_1:
%4 = and i64 %1, 4294967295
%5 = bitcast i32* %sv_1 to i64*
%6 = call i64 @FUNC(i64 %4, i64 0, i64* nonnull %5, i64* nonnull %sv_2, i64* nonnull %sv_3)
%7 = trunc i64 %6 to i32
%8 = icmp slt i32 %7, 0
br i1 %8, label LBL_10, label LBL_2
LBL_2:
%9 = inttoptr i64 %arg1 to i8*
%10 = call i32 (i8*, i32, ...) @open(i8* %9, i32 2)
%11 = icmp slt i32 %10, 0
%12 = icmp eq i1 %11, false
br i1 %12, label LBL_4, label LBL_3
LBL_3:
%13 = ptrtoint i64* %sv_2 to i64
%14 = load %_IO_FILE*, %_IO_FILE** @gv_1, align 8
%15 = call i32 (%_IO_FILE*, i8*, ...) @fprintf(%_IO_FILE* %14, i8* getelementptr inbounds ([22 x i8], [22 x i8]* @gv_2, i64 0, i64 0), i8* %9, i64 %13)
br label LBL_10
LBL_4:
%16 = load i64, i64* %sv_3, align 8
%17 = load i64, i64* %sv_2, align 8
%18 = load i32, i32* %sv_1, align 4
%19 = zext i32 %18 to i64
%20 = zext i32 %10 to i64
%21 = call i64 @FUNC(i64 %20, i32 %2, i64 %19, i64 %17, i64 %16)
%22 = trunc i64 %21 to i32
%23 = icmp slt i32 %22, 0
br i1 %23, label LBL_10, label LBL_5
LBL_5:
%24 = bitcast i64* %sv_0 to i32*
%25 = inttoptr i64 %arg1 to i64*
%26 = call i32 @pthread_create(i32* nonnull %24, i64* null, i64* (i64*)* inttoptr (i64 4198944 to i64* (i64*)*), i64* %25)
%27 = load i32, i32* @gv_3, align 4
%28 = icmp eq i32 %27, 0
br i1 %28, label LBL_7, label LBL_6
LBL_6:
%29 = load [13 x i8]*, [13 x i8]** @gv_4, align 8
%30 = load %_IO_FILE*, %_IO_FILE** @gv_1, align 8
%31 = getelementptr inbounds [13 x i8], [13 x i8]* %29, i64 0, i64 0
%32 = call i32 (%_IO_FILE*, i8*, ...) @fprintf(%_IO_FILE* %30, i8* getelementptr inbounds ([38 x i8], [38 x i8]* @gv_5, i64 0, i64 0), i8* %9, i8* %31)
br label LBL_8
LBL_7:
%33 = call i32 @dup2(i32 1, i32 2)
br label LBL_8
LBL_8:
%34 = call i64 @FUNC(i64 %20)
%35 = trunc i64 %34 to i32
%36 = icmp eq i32 %35, 0
%37 = icmp eq i1 %36, false
br i1 %37, label LBL_10, label LBL_9
LBL_9:
%38 = call i32 @close(i32 %10)
%39 = call i32 @getpid()
%40 = call i32 @kill(i32 %39, i32 15)
store i64 0, i64* %storemerge.reg2mem
br label LBL_11
LBL_10:
%41 = call i32 @getpid()
%42 = call i32 @kill(i32 %41, i32 15)
store i64 1, i64* %storemerge.reg2mem
br label LBL_11
LBL_11:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
ret i64 %storemerge.reload
uselistorder i8* %9, { 1, 0, 2 }
uselistorder i64* %sv_3, { 1, 0 }
uselistorder i64* %sv_2, { 1, 2, 0 }
uselistorder i32 (i32, i32)* @kill, { 1, 0 }
uselistorder i32 15, { 1, 0 }
uselistorder i32 ()* @getpid, { 1, 0 }
uselistorder i32 0, { 5, 6, 7, 8, 9, 10, 11, 0, 1, 2, 3, 4 }
uselistorder label LBL_10, { 0, 1, 4, 2, 3 }
}
|
1
|
CompRealVul
|
bdrv_get_dirty_16499
|
bdrv_get_dirty
|
define i64 @FUNC(i64* %arg1, i64 %arg2) local_unnamed_addr {
LBL_0:
%storemerge.reg2mem = alloca i64
%0 = icmp eq i64* %arg1, null
store i64 0, i64* %storemerge.reg2mem
br i1 %0, label LBL_3, label LBL_1
LBL_1:
%1 = ptrtoint i64* %arg1 to i64
%2 = mul i64 %arg2, 512
%3 = call i64 @FUNC(i64 %1)
%4 = icmp sgt i64 %2, %3
store i64 0, i64* %storemerge.reg2mem
br i1 %4, label LBL_3, label LBL_2
LBL_2:
%5 = add i64 %arg2, 63
%6 = icmp slt i64 %arg2, 0
%7 = select i1 %6, i64 %5, i64 %arg2
%8 = ashr i64 %7, 6
%9 = mul i64 %8, 8
%10 = add i64 %9, %1
%11 = inttoptr i64 %10 to i64*
%12 = load i64, i64* %11, align 8
store i64 %12, i64* %storemerge.reg2mem
br label LBL_3
LBL_3:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
ret i64 %storemerge.reload
uselistorder i64* %storemerge.reg2mem, { 0, 3, 2, 1 }
uselistorder i64 %arg2, { 1, 2, 3, 0 }
uselistorder i64* %arg1, { 1, 0 }
uselistorder label LBL_3, { 2, 1, 0 }
}
|
1
|
CompRealVul
|
virtio_scsi_handle_cmd_14244
|
virtio_scsi_handle_cmd
|
define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%sv_0.0.ph.reg2mem = alloca i64
%0 = ptrtoint i64* %arg1 to i64
%1 = icmp eq i64* %arg1, null
br i1 %1, label LBL_2, label LBL_1
LBL_1:
%2 = add i64 %0, 8
%3 = inttoptr i64 %2 to i32*
%4 = load i32, i32* %3, align 4
%5 = icmp eq i32 %4, 0
%6 = icmp eq i1 %5, false
br i1 %6, label LBL_2, label LBL_3
LBL_2:
%7 = ptrtoint i64* %arg2 to i64
store i64 0, i64* %sv_0.0.ph.reg2mem
br label LBL_6
LBL_3:
%8 = call i64 @FUNC(i64 %0)
store i64 %8, i64* %rax.0.reg2mem
br label LBL_8
LBL_4:
%9 = call i64 @FUNC(i64 %0, i64 %14)
%10 = trunc i64 %9 to i32
%11 = icmp eq i32 %10, 0
br i1 %11, label LBL_7, label LBL_5
LBL_5:
%12 = inttoptr i64 %14 to i64*
store i64 0, i64* %12, align 8
%13 = inttoptr i64 %sv_0.0.ph.reload to i64*
store i64 %14, i64* %13, align 8
store i64 %14, i64* %sv_0.0.ph.reg2mem
br label LBL_6
LBL_6:
%sv_0.0.ph.reload = load i64, i64* %sv_0.0.ph.reg2mem
br label LBL_7
LBL_7:
%14 = call i64 @FUNC(i64 %0, i64 %7)
%15 = icmp eq i64 %14, 0
%16 = icmp eq i1 %15, false
store i64 0, i64* %rax.0.reg2mem
br i1 %16, label LBL_4, label LBL_8
LBL_8:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %14, { 4, 3, 2, 1, 0 }
uselistorder i64 %0, { 3, 2, 1, 0 }
uselistorder label LBL_6, { 1, 0 }
uselistorder label LBL_2, { 1, 0 }
}
|
1
|
CompRealVul
|
decode_user_data_14545
|
decode_user_data
|
define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr {
LBL_0:
%storemerge.reg2mem = alloca i32
%sv_0.03.reg2mem = alloca i32
%storemerge2.lcssa.reg2mem = alloca i32
%storemerge25.reg2mem = alloca i32
%indvars.iv.reg2mem = alloca i64
%0 = ptrtoint i64* %arg2 to i64
%1 = ptrtoint i64* %arg1 to i64
%sv_1 = alloca i64, align 8
%sv_2 = alloca i64, align 8
%sv_3 = alloca i64, align 8
%sv_4 = alloca i64, align 8
%sv_5 = alloca i64, align 8
%sv_6 = alloca i8, align 1
%sv_7 = alloca i64, align 8
%2 = ptrtoint i64* %sv_7 to i64
%3 = add i64 %2, -272
store i64 0, i64* %indvars.iv.reg2mem
store i32 0, i32* %storemerge25.reg2mem
br label LBL_1
LBL_1:
%indvars.iv.reload = load i64, i64* %indvars.iv.reg2mem
%4 = call i64 @FUNC(i64 %0, i64 23)
%5 = trunc i64 %4 to i32
%6 = icmp eq i32 %5, 0
br i1 %6, label LBL_3, label LBL_2
LBL_2:
%storemerge25.reload = load i32, i32* %storemerge25.reg2mem
%7 = call i64 @FUNC(i64 %0, i64 8)
%8 = trunc i64 %7 to i8
%9 = add i64 %indvars.iv.reload, %3
%10 = inttoptr i64 %9 to i8*
store i8 %8, i8* %10, align 1
%indvars.iv.next = add nuw nsw i64 %indvars.iv.reload, 1
%11 = add nuw nsw i32 %storemerge25.reload, 1
%12 = icmp ult i64 %indvars.iv.next, 255
store i64 %indvars.iv.next, i64* %indvars.iv.reg2mem
store i32 %11, i32* %storemerge25.reg2mem
store i32 %11, i32* %storemerge2.lcssa.reg2mem
br i1 %12, label LBL_1, label LBL_4
LBL_3:
%13 = trunc i64 %indvars.iv.reload to i32
store i32 %13, i32* %storemerge2.lcssa.reg2mem
br label LBL_4
LBL_4:
%storemerge2.lcssa.reload = load i32, i32* %storemerge2.lcssa.reg2mem
%14 = sext i32 %storemerge2.lcssa.reload to i64
%15 = add i64 %3, %14
%16 = inttoptr i64 %15 to i8*
store i8 0, i8* %16, align 1
%17 = bitcast i64* %sv_3 to i8*
%18 = call i32 (i8*, i8*, ...) @sscanf(i8* nonnull %17, i8* getelementptr inbounds ([16 x i8], [16 x i8]* @gv_0, i64 0, i64 0), i64* nonnull %sv_4, i64* nonnull %sv_5, i8* nonnull %sv_6)
%19 = icmp sgt i32 %18, 1
store i32 %18, i32* %sv_0.03.reg2mem
br i1 %19, label LBL_6, label LBL_5
LBL_5:
%20 = call i32 (i8*, i8*, ...) @sscanf(i8* nonnull %17, i8* getelementptr inbounds ([12 x i8], [12 x i8]* @gv_1, i64 0, i64 0), i64* nonnull %sv_4, i64* nonnull %sv_5, i8* nonnull %sv_6)
%21 = icmp slt i32 %20, 2
store i32 %20, i32* %sv_0.03.reg2mem
br i1 %21, label LBL_10, label LBL_6
LBL_6:
%sv_0.03.reload = load i32, i32* %sv_0.03.reg2mem
%22 = load i64, i64* %sv_4, align 8
%23 = trunc i64 %22 to i32
%24 = bitcast i64* %arg1 to i32*
store i32 %23, i32* %24, align 4
%25 = load i64, i64* %sv_5, align 8
%26 = trunc i64 %25 to i32
%27 = add i64 %1, 4
%28 = inttoptr i64 %27 to i32*
store i32 %26, i32* %28, align 4
%29 = icmp eq i32 %sv_0.03.reload, 3
%30 = icmp eq i1 %29, false
br i1 %30, label LBL_8, label LBL_7
LBL_7:
%31 = load i8, i8* %sv_6, align 1
%32 = icmp eq i8 %31, 112
%33 = icmp eq i1 %32, false
store i32 1, i32* %storemerge.reg2mem
br i1 %33, label LBL_8, label LBL_9
LBL_8:
store i32 0, i32* %storemerge.reg2mem
br label LBL_9
LBL_9:
%storemerge.reload = load i32, i32* %storemerge.reg2mem
%34 = add i64 %1, 8
%35 = inttoptr i64 %34 to i32*
store i32 %storemerge.reload, i32* %35, align 4
br label LBL_10
LBL_10:
%36 = call i32 (i8*, i8*, ...) @sscanf(i8* nonnull %17, i8* getelementptr inbounds ([15 x i8], [15 x i8]* @gv_2, i64 0, i64 0), i64* nonnull %sv_5, i64* nonnull %sv_5, i8* nonnull %sv_6)
%37 = icmp eq i32 %36, 1
br i1 %37, label LBL_15, label LBL_11
LBL_11:
%38 = call i32 (i8*, i8*, ...) @sscanf(i8* nonnull %17, i8* getelementptr inbounds ([40 x i8], [40 x i8]* @gv_3, i64 0, i64 0), i64* nonnull %sv_4, i64* nonnull %sv_1, i64* nonnull %sv_2, i64* nonnull %sv_5)
%39 = icmp eq i32 %38, 4
br i1 %39, label LBL_15, label LBL_12
LBL_12:
%40 = call i32 (i8*, i8*, ...) @sscanf(i8* nonnull %17, i8* getelementptr inbounds ([13 x i8], [13 x i8]* @gv_4, i64 0, i64 0), i64* nonnull %sv_4, i64* nonnull %sv_1, i64* nonnull %sv_2)
%41 = load i64, i64* %sv_4, align 8
%42 = trunc i64 %41 to i32
%43 = mul i32 %42, 65536
%44 = load i64, i64* %sv_1, align 8
%45 = trunc i64 %44 to i32
%46 = mul i32 %45, 256
%47 = add i32 %46, %43
%48 = load i64, i64* %sv_2, align 8
%49 = trunc i64 %48 to i32
%50 = add i32 %47, %49
%51 = sext i32 %50 to i64
store i64 %51, i64* %sv_5, align 8
%52 = icmp eq i32 %40, 3
br i1 %52, label LBL_15, label LBL_13
LBL_13:
%53 = call i32 @strcmp(i8* nonnull %17, i8* getelementptr inbounds ([7 x i8], [7 x i8]* @gv_5, i64 0, i64 0))
%54 = icmp eq i32 %53, 0
%55 = icmp eq i1 %54, false
br i1 %55, label LBL_16, label LBL_14
LBL_14:
%56 = add i64 %1, 12
%57 = inttoptr i64 %56 to i32*
store i32 4600, i32* %57, align 4
br label LBL_16
LBL_15:
%58 = load i64, i64* %sv_5, align 8
%59 = trunc i64 %58 to i32
%60 = add i64 %1, 12
%61 = inttoptr i64 %60 to i32*
store i32 %59, i32* %61, align 4
br label LBL_16
LBL_16:
%62 = call i32 (i8*, i8*, ...) @sscanf(i8* nonnull %17, i8* getelementptr inbounds ([7 x i8], [7 x i8]* @gv_6, i64 0, i64 0), i64* nonnull %sv_5)
%63 = icmp eq i32 %62, 1
%64 = icmp eq i1 %63, false
br i1 %64, label LBL_18, label LBL_17
LBL_17:
%65 = load i64, i64* %sv_5, align 8
%66 = trunc i64 %65 to i32
%67 = add i64 %1, 16
%68 = inttoptr i64 %67 to i32*
store i32 %66, i32* %68, align 4
br label LBL_18
LBL_18:
ret i64 0
uselistorder i8* %17, { 4, 3, 2, 1, 5, 0, 6 }
uselistorder i64 %indvars.iv.reload, { 2, 0, 1 }
uselistorder i8* %sv_6, { 0, 1, 3, 2 }
uselistorder i64* %sv_5, { 6, 1, 7, 8, 2, 0, 3, 9, 4, 5 }
uselistorder i64* %sv_4, { 4, 0, 1, 5, 2, 3 }
uselistorder i64* %sv_2, { 2, 0, 1 }
uselistorder i64* %sv_1, { 2, 0, 1 }
uselistorder i64 %1, { 4, 3, 2, 0, 1 }
uselistorder i64* %indvars.iv.reg2mem, { 1, 0, 2 }
uselistorder i32* %storemerge25.reg2mem, { 1, 0, 2 }
uselistorder i32* %storemerge2.lcssa.reg2mem, { 0, 2, 1 }
uselistorder i32* %sv_0.03.reg2mem, { 0, 2, 1 }
uselistorder i32* %storemerge.reg2mem, { 0, 2, 1 }
uselistorder i32 (i8*, i8*, ...)* @sscanf, { 2, 1, 0, 5, 4, 3 }
uselistorder i64 1, { 1, 0 }
uselistorder i64 8, { 1, 0 }
uselistorder i32 0, { 2, 0, 3, 1 }
uselistorder label LBL_16, { 2, 1, 0 }
uselistorder label LBL_15, { 2, 0, 1 }
uselistorder label LBL_9, { 1, 0 }
uselistorder label LBL_6, { 1, 0 }
uselistorder label LBL_4, { 1, 0 }
uselistorder label LBL_1, { 1, 0 }
}
|
1
|
CompRealVul
|
rle8_write_unc_68
|
rle8_write_unc
|
define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%rdi.1.reg2mem = alloca i64
%.pre-phi4.reg2mem = alloca i64*
%storemerge2.reg2mem = alloca i64
%0 = ptrtoint i64* %arg1 to i64
%sv_0 = alloca i8, align 1
%1 = icmp eq i64* %arg1, null
store i64 %0, i64* %rax.0.reg2mem
br i1 %1, label LBL_12, label LBL_1
LBL_1:
%2 = icmp ult i64* %arg1, inttoptr (i64 3 to i64*)
%3 = urem i64 %0, 2
%4 = icmp eq i64 %3, 0
%or.cond = or i1 %2, %4
br i1 %or.cond, label LBL_3, label LBL_2
LBL_2:
%5 = add i64 %0, 32
%6 = inttoptr i64 %5 to i64*
%7 = load i64, i64* %6, align 8
%8 = call i64 @FUNC(i64 %7, i8* getelementptr inbounds ([29 x i8], [29 x i8]* @gv_0, i64 0, i64 0))
store i64 %8, i64* %rax.0.reg2mem
br label LBL_12
LBL_3:
%9 = icmp ult i64* %arg1, inttoptr (i64 255 to i64*)
br i1 %9, label LBL_5, label LBL_4
LBL_4:
%10 = add i64 %0, 32
%11 = inttoptr i64 %10 to i64*
%12 = load i64, i64* %11, align 8
%13 = call i64 @FUNC(i64 %12, i8* getelementptr inbounds ([29 x i8], [29 x i8]* @gv_1, i64 0, i64 0))
store i64 %13, i64* %rax.0.reg2mem
br label LBL_12
LBL_5:
br i1 %2, label LBL_6, label LBL_8
LBL_6:
%14 = add i64 %0, 40
%15 = inttoptr i64 %14 to i64*
%16 = add i64 %0, 16
%17 = inttoptr i64 %16 to i64*
store i64 0, i64* %storemerge2.reg2mem
br label LBL_7
LBL_7:
%storemerge2.reload = load i64, i64* %storemerge2.reg2mem
store i8 1, i8* %sv_0, align 1
%18 = load i64, i64* %15, align 8
%19 = call i64 @FUNC(i64 %18, i8* nonnull %sv_0, i64 2)
%20 = load i64, i64* %17, align 8
%21 = add i64 %20, 2
store i64 %21, i64* %17, align 8
%22 = add nuw i64 %storemerge2.reload, 1
%23 = icmp ult i64 %22, %18
store i64 %22, i64* %storemerge2.reg2mem
br i1 %23, label LBL_7, label LBL_10
LBL_8:
store i8 0, i8* %sv_0, align 1
%24 = add i64 %0, 40
%25 = inttoptr i64 %24 to i64*
%26 = load i64, i64* %25, align 8
%27 = call i64 @FUNC(i64 %26, i8* nonnull %sv_0, i64 2)
%28 = add i64 %0, 16
%29 = inttoptr i64 %28 to i64*
%30 = load i64, i64* %29, align 8
%31 = add i64 %30, 2
store i64 %31, i64* %29, align 8
%32 = add i64 %0, 24
%33 = inttoptr i64 %32 to i64*
%34 = load i64, i64* %33, align 8
%35 = add i64 %0, 8
%36 = inttoptr i64 %35 to i64*
%37 = load i64, i64* %36, align 8
%38 = add i64 %37, %34
%39 = load i64, i64* %25, align 8
%40 = inttoptr i64 %38 to i8*
%41 = call i64 @FUNC(i64 %39, i8* %40, i64 %26)
%42 = load i64, i64* %29, align 8
%43 = add i64 %42, %39
store i64 %43, i64* %29, align 8
%44 = urem i64 %39, 2
%45 = icmp eq i64 %44, 0
store i64* %36, i64** %.pre-phi4.reg2mem
store i64 %39, i64* %rdi.1.reg2mem
br i1 %45, label LBL_11, label LBL_9
LBL_9:
store i8 0, i8* %sv_0, align 1
%46 = load i64, i64* %25, align 8
%47 = call i64 @FUNC(i64 %46, i8* nonnull %sv_0, i64 1)
%48 = load i64, i64* %29, align 8
%49 = add i64 %48, 1
store i64 %49, i64* %29, align 8
store i64* %36, i64** %.pre-phi4.reg2mem
store i64 %46, i64* %rdi.1.reg2mem
br label LBL_11
LBL_10:
%.pre = add i64 %0, 8
%.pre3 = inttoptr i64 %.pre to i64*
store i64* %.pre3, i64** %.pre-phi4.reg2mem
store i64 %18, i64* %rdi.1.reg2mem
br label LBL_11
LBL_11:
%rdi.1.reload = load i64, i64* %rdi.1.reg2mem
%.pre-phi4.reload = load i64*, i64** %.pre-phi4.reg2mem
%50 = load i64, i64* %.pre-phi4.reload, align 8
%51 = add i64 %50, %rdi.1.reload
store i64 %51, i64* %.pre-phi4.reload, align 8
store i64 0, i64* %arg1, align 8
store i64 %0, i64* %rax.0.reg2mem
br label LBL_12
LBL_12:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64* %36, { 1, 0, 2 }
uselistorder i64* %29, { 0, 1, 3, 2, 4, 5 }
uselistorder i8* %sv_0, { 0, 3, 1, 4, 2, 5 }
uselistorder i64 %0, { 0, 3, 7, 6, 9, 8, 11, 10, 5, 4, 2, 1 }
uselistorder i64* %storemerge2.reg2mem, { 1, 0, 2 }
uselistorder i64** %.pre-phi4.reg2mem, { 0, 3, 2, 1 }
uselistorder i64* %rdi.1.reg2mem, { 0, 3, 2, 1 }
uselistorder i64* %rax.0.reg2mem, { 0, 3, 2, 1, 4 }
uselistorder i8 0, { 1, 2, 0 }
uselistorder i64 1, { 1, 0, 2 }
uselistorder i64 (i64, i8*, i64)* @iwbmp_write, { 3, 2, 1, 0 }
uselistorder i64 (i64, i8*)* @iw_set_error, { 1, 0 }
uselistorder i64 2, { 0, 4, 2, 5, 3, 1 }
uselistorder label LBL_12, { 1, 2, 3, 0 }
uselistorder label LBL_7, { 1, 0 }
}
|
0
|
CompRealVul
|
serverCron_7479
|
serverCron
|
define i64 @FUNC(i64* %arg1, i64 %arg2, i64 %arg3) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%storemerge.reg2mem = alloca i64
%storemerge412.reg2mem = alloca i32
%.reg2mem24 = alloca i64
%r8.2.reg2mem = alloca i64
%r9.1.lcssa.reg2mem = alloca i64
%r8.1.lcssa.reg2mem = alloca i64
%r9.0.reg2mem = alloca i64
%r8.0.reg2mem = alloca i64
%r8.113.reg2mem = alloca i64
%r9.114.reg2mem = alloca i64
%storemerge515.reg2mem = alloca i32
%.reg2mem = alloca i64
%1 = load i64, i64* %0
%2 = load i64, i64* %0
%3 = load i64, i64* %0
%sv_0 = alloca i32, align 4
%4 = load i128, i128* @gv_0, align 8
%5 = trunc i128 %4 to i64
%6 = add i64 %5, 1
%7 = sext i64 %6 to i128
store i128 %7, i128* @gv_0, align 8
%8 = call i32 @time(i32* null)
%9 = sext i32 %8 to i64
store i64 %9, i64* @gv_1, align 8
%10 = call i64 @FUNC()
%11 = load i32, i32* @gv_2, align 4
%12 = icmp eq i32 %11, 0
br i1 %12, label LBL_4, label LBL_1
LBL_1:
%13 = call i64 @FUNC()
%14 = trunc i64 %13 to i32
%15 = icmp eq i32 %14, 0
%16 = icmp eq i1 %15, false
br i1 %16, label LBL_3, label LBL_2
LBL_2:
call void @exit(i32 0)
unreachable
LBL_3:
%17 = call i64 @FUNC(i64 1, i8* getelementptr inbounds ([96 x i8], [96 x i8]* @gv_3, i64 0, i64 0), i64 %6, i64 %3, i64 %2, i64 %1)
br label LBL_4
LBL_4:
%18 = load i32, i32* @gv_4, align 4
%19 = icmp eq i32 %18, 0
br i1 %19, label LBL_9, label LBL_5
LBL_5:
store i64 0, i64* %.reg2mem
store i32 0, i32* %storemerge515.reg2mem
br label LBL_6
LBL_6:
%r8.113.reload = load i64, i64* %r8.113.reg2mem
%r9.114.reload = load i64, i64* %r9.114.reg2mem
%storemerge515.reload = load i32, i32* %storemerge515.reg2mem
%.reload = load i64, i64* %.reg2mem
%20 = load i64, i64* @gv_5, align 8
%21 = mul i64 %.reload, 16
%22 = add i64 %20, %21
%23 = inttoptr i64 %22 to i64*
%24 = load i64, i64* %23, align 8
%25 = call i64 @FUNC(i64 %24)
%26 = load i64, i64* @gv_5, align 8
%27 = add i64 %26, %21
%28 = inttoptr i64 %27 to i64*
%29 = load i64, i64* %28, align 8
%30 = call i64 @FUNC(i64 %29)
%31 = load i64, i64* @gv_5, align 8
%32 = or i64 %21, 8
%33 = add i64 %31, %32
%34 = inttoptr i64 %33 to i64*
%35 = load i64, i64* %34, align 8
%36 = call i64 @FUNC(i64 %35)
%37 = or i64 %36, %30
%38 = icmp eq i64 %37, 0
store i64 %r8.113.reload, i64* %r8.0.reg2mem
store i64 %r9.114.reload, i64* %r9.0.reg2mem
br i1 %38, label LBL_8, label LBL_7
LBL_7:
%39 = zext i32 %storemerge515.reload to i64
%40 = call i64 @FUNC(i64 2, i8* getelementptr inbounds ([51 x i8], [51 x i8]* @gv_6, i64 0, i64 0), i64 %39, i64 %30, i64 %36, i64 %25)
store i64 %36, i64* %r8.0.reg2mem
store i64 %25, i64* %r9.0.reg2mem
br label LBL_8
LBL_8:
%r9.0.reload = load i64, i64* %r9.0.reg2mem
%r8.0.reload = load i64, i64* %r8.0.reg2mem
%41 = add i32 %storemerge515.reload, 1
%42 = load i32, i32* @gv_4, align 4
%43 = zext i32 %42 to i64
%44 = sext i32 %41 to i64
%45 = icmp slt i64 %44, %43
store i64 %44, i64* %.reg2mem
store i32 %41, i32* %storemerge515.reg2mem
store i64 %r9.0.reload, i64* %r9.114.reg2mem
store i64 %r8.0.reload, i64* %r8.113.reg2mem
store i64 %r8.0.reload, i64* %r8.1.lcssa.reg2mem
store i64 %r9.0.reload, i64* %r9.1.lcssa.reg2mem
br i1 %45, label LBL_6, label LBL_9
LBL_9:
%r9.1.lcssa.reload = load i64, i64* %r9.1.lcssa.reg2mem
%r8.1.lcssa.reload = load i64, i64* %r8.1.lcssa.reg2mem
%46 = load i32, i32* @gv_7, align 4
%47 = icmp eq i32 %46, -1
%48 = icmp eq i1 %47, false
br i1 %48, label LBL_15, label LBL_10
LBL_10:
%49 = load i32, i32* @gv_8, align 4
%50 = icmp eq i32 %49, -1
%51 = icmp eq i1 %50, false
br i1 %51, label LBL_15, label LBL_11
LBL_11:
br i1 false, label LBL_13, label LBL_12
LBL_12:
%52 = call i64 @FUNC()
br label LBL_13
LBL_13:
%53 = load i32, i32* @gv_9, align 4
%54 = icmp eq i32 %53, 0
br i1 %54, label LBL_15, label LBL_14
LBL_14:
%55 = call i64 @FUNC()
br label LBL_15
LBL_15:
store i64 %r8.1.lcssa.reload, i64* %r8.2.reg2mem
br i1 false, label LBL_17, label LBL_16
LBL_16:
%56 = call i64 @FUNC()
%57 = load i64, i64* @gv_10, align 8
%58 = call i64 @FUNC(i64 %57)
%59 = load i64, i64* @gv_11, align 8
%60 = call i64 @FUNC(i64 %59)
%61 = load i64, i64* @gv_10, align 8
%62 = call i64 @FUNC(i64 %61)
%63 = sub i64 %60, %62
%64 = and i64 %58, 4294967295
%65 = and i64 %63, 4294967295
%66 = call i64 @FUNC(i64 2, i8* getelementptr inbounds ([51 x i8], [51 x i8]* @gv_12, i64 0, i64 0), i64 %65, i64 %64, i64 %56, i64 %r9.1.lcssa.reload)
store i64 %56, i64* %r8.2.reg2mem
br label LBL_17
LBL_17:
%r8.2.reload = load i64, i64* %r8.2.reg2mem
%67 = load i32, i32* @gv_13, align 4
%68 = icmp eq i32 %67, 0
br i1 %68, label LBL_19, label LBL_18
LBL_18:
br i1 true, label LBL_20, label LBL_19
LBL_19:
%69 = load i32, i32* @gv_14, align 4
%70 = icmp eq i32 %69, 0
br i1 %70, label LBL_21, label LBL_20
LBL_20:
%71 = call i64 @FUNC()
br label LBL_21
LBL_21:
%72 = load i32, i32* @gv_7, align 4
%73 = load i32, i32* @gv_8, align 4
%74 = and i32 %73, %72
%75 = icmp eq i32 %74, -1
br i1 %75, label LBL_27, label LBL_22
LBL_22:
%76 = ptrtoint i32* %sv_0 to i64
%77 = call i32 @wait3(i64 %76, i32 1, %rusage* null)
%78 = icmp eq i32 %77, 0
br i1 %78, label LBL_33, label LBL_23
LBL_23:
%79 = load i32, i32* @gv_7, align 4
%80 = icmp eq i32 %77, %79
%81 = icmp eq i1 %80, false
%82 = load i32, i32* %sv_0, align 4
%83 = zext i32 %82 to i64
br i1 %81, label LBL_25, label LBL_24
LBL_24:
%84 = call i64 @FUNC(i64 %83)
br label LBL_26
LBL_25:
%85 = call i64 @FUNC(i64 %83)
br label LBL_26
LBL_26:
%86 = call i64 @FUNC()
br label LBL_33
LBL_27:
%87 = call i32 @time(i32* null)
%88 = load i32, i32* @gv_15, align 4
%89 = icmp eq i32 %88, 0
br i1 %89, label LBL_33, label LBL_28
LBL_28:
%90 = sext i32 %87 to i64
%91 = load i64, i64* @gv_16, align 8
%92 = load i32, i32* @gv_17, align 4
%93 = load i64, i64* @gv_18, align 8
%94 = sub i64 %90, %93
%95 = zext i32 %88 to i64
store i64 0, i64* %.reg2mem24
store i32 0, i32* %storemerge412.reg2mem
br label LBL_29
LBL_29:
%storemerge412.reload = load i32, i32* %storemerge412.reg2mem
%.reload25 = load i64, i64* %.reg2mem24
%96 = mul i64 %.reload25, 8
%97 = add i64 %96, %91
%98 = inttoptr i64 %97 to i32*
%99 = load i32, i32* %98, align 4
%100 = icmp ult i32 %92, %99
br i1 %100, label LBL_32, label LBL_30
LBL_30:
%101 = add i64 %97, 4
%102 = inttoptr i64 %101 to i32*
%103 = load i32, i32* %102, align 4
%104 = sext i32 %103 to i64
%105 = icmp sgt i64 %94, %104
br i1 %105, label LBL_31, label LBL_32
LBL_31:
%106 = zext i32 %103 to i64
%107 = zext i32 %99 to i64
%108 = call i64 @FUNC(i64 3, i8* getelementptr inbounds ([36 x i8], [36 x i8]* @gv_19, i64 0, i64 0), i64 %107, i64 %106, i64 %r8.2.reload, i64 %r9.1.lcssa.reload)
%109 = load i64, i64* @gv_20, align 8
%110 = call i64 @FUNC(i64 %109)
br label LBL_33
LBL_32:
%111 = add i32 %storemerge412.reload, 1
%112 = sext i32 %111 to i64
%113 = icmp slt i64 %112, %95
store i64 %112, i64* %.reg2mem24
store i32 %111, i32* %storemerge412.reg2mem
br i1 %113, label LBL_29, label LBL_33
LBL_33:
%114 = load i64, i64* @gv_21, align 8
%115 = icmp eq i64 %114, 0
%116 = icmp eq i1 %115, false
br i1 %116, label LBL_35, label LBL_34
LBL_34:
%117 = call i64 @FUNC()
br label LBL_35
LBL_35:
%118 = call i64 @FUNC()
%119 = trunc i64 %118 to i32
%120 = icmp eq i32 %119, 0
br i1 %120, label LBL_46, label LBL_44
LBL_36:
%121 = load i32, i32* @gv_22, align 4
%122 = icmp eq i32 %121, 0
%123 = icmp eq i1 %122, false
br i1 %123, label LBL_38, label LBL_37
LBL_37:
%124 = call i64 @FUNC()
store i64 %124, i64* %storemerge.reg2mem
br label LBL_39
LBL_38:
%125 = call i64 @FUNC()
store i64 %125, i64* %storemerge.reg2mem
br label LBL_39
LBL_39:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
%126 = trunc i64 %storemerge.reload to i32
%127 = icmp eq i32 %126, -1
%128 = icmp eq i1 %127, false
br i1 %128, label LBL_43, label LBL_40
LBL_40:
br i1 false, label LBL_46, label LBL_41
LBL_41:
%129 = call i64 @FUNC()
br i1 false, label LBL_42, label LBL_46
LBL_42:
br label LBL_46
LBL_43:
%130 = load i32, i32* @gv_22, align 4
%131 = icmp eq i32 %130, 0
%132 = icmp slt i32 %130, 0
%133 = icmp eq i1 %132, false
%134 = icmp eq i1 %131, false
%135 = icmp eq i1 %133, %134
br i1 %135, label LBL_46, label LBL_44
LBL_44:
%136 = load i32, i32* @gv_23, align 4
%137 = icmp eq i32 %136, 0
br i1 %137, label LBL_46, label LBL_45
LBL_45:
%138 = call i64 @FUNC()
%139 = load i128, i128* @gv_24, align 8
%140 = trunc i128 %139 to i64
%141 = icmp ugt i64 %138, %140
br i1 %141, label LBL_36, label LBL_46
LBL_46:
br i1 false, label LBL_48, label LBL_47
LBL_47:
%142 = call i64 @FUNC()
br label LBL_48
LBL_48:
ret i64 100
uselistorder i32 %130, { 1, 0 }
uselistorder i64 %83, { 1, 0 }
uselistorder i64 %r9.1.lcssa.reload, { 1, 0 }
uselistorder i64 %36, { 0, 2, 1 }
uselistorder i64 %30, { 1, 0 }
uselistorder i64 %21, { 0, 2, 1 }
uselistorder i32 %storemerge515.reload, { 1, 0 }
uselistorder i32* %sv_0, { 1, 0 }
uselistorder i64* %.reg2mem, { 1, 0, 2 }
uselistorder i32* %storemerge515.reg2mem, { 1, 0, 2 }
uselistorder i64* %r9.114.reg2mem, { 1, 0 }
uselistorder i64* %r8.113.reg2mem, { 1, 0 }
uselistorder i64* %.reg2mem24, { 1, 0, 2 }
uselistorder i32* %storemerge412.reg2mem, { 1, 0, 2 }
uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 }
uselistorder i64* %0, { 2, 1, 0 }
uselistorder i64 (i64)* @listLength, { 2, 1, 0 }
uselistorder i64 ()* @zmalloc_used_memory, { 1, 2, 0 }
uselistorder i64 (i64)* @dictSize, { 1, 0 }
uselistorder i64 (i64, i8*, i64, i64, i64, i64)* @redisLog, { 3, 2, 1, 0 }
uselistorder i1 false, { 2, 6, 5, 0, 1, 7, 8, 9, 10, 3, 4, 11, 12, 13 }
uselistorder label LBL_46, { 0, 2, 1, 4, 5, 3, 6 }
uselistorder label LBL_44, { 1, 0 }
uselistorder label LBL_33, { 0, 4, 1, 3, 2 }
uselistorder label LBL_29, { 1, 0 }
uselistorder label LBL_6, { 1, 0 }
}
|
1
|
CompRealVul
|
ip_find_8806
|
ip_find
|
define i64 @FUNC(i64* %arg1, i64* %arg2, i32 %arg3) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%1 = load i64, i64* %0
%2 = ptrtoint i64* %arg2 to i64
%3 = ptrtoint i64* %arg1 to i64
%sv_0 = alloca i64, align 8
store i64 %2, i64* %sv_0, align 8
%4 = call i64 @FUNC(i64* nonnull @gv_0)
%5 = add i64 %2, 12
%6 = inttoptr i64 %5 to i8*
%7 = load i8, i8* %6, align 1
%8 = zext i8 %7 to i64
%9 = add i64 %2, 8
%10 = inttoptr i64 %9 to i32*
%11 = load i32, i32* %10, align 4
%12 = add i64 %2, 4
%13 = inttoptr i64 %12 to i32*
%14 = load i32, i32* %13, align 4
%15 = and i64 %1, 4294967295
%16 = call i64 @FUNC(i64 %15, i32 %14, i32 %11, i64 %8)
%17 = trunc i64 %16 to i32
%18 = call i64 @FUNC(i64 %3, i64* nonnull @gv_0, i64* nonnull %sv_0, i32 %17)
%19 = icmp eq i64 %18, 0
br i1 %19, label LBL_1, label LBL_2
LBL_1:
%20 = call i64 @FUNC(i8* getelementptr inbounds ([41 x i8], [41 x i8]* @gv_1, i64 0, i64 0))
br label LBL_2
LBL_2:
ret i64 %18
uselistorder label LBL_2, { 1, 0 }
}
|
0
|
CompRealVul
|
packet_getname_4185
|
packet_getname
|
define i64 @FUNC(i64* %arg1, i64* %arg2, i64* %arg3, i64 %arg4) local_unnamed_addr {
LBL_0:
%storemerge.reg2mem = alloca i64
%.pre-phi3.reg2mem = alloca i8*
%0 = ptrtoint i64* %arg1 to i64
%1 = trunc i64 %arg4 to i32
%2 = call i64 @FUNC(i64 %0)
%3 = icmp eq i32 %1, 0
store i64 95, i64* %storemerge.reg2mem
br i1 %3, label LBL_1, label LBL_5
LBL_1:
%4 = ptrtoint i64* %arg2 to i64
%5 = inttoptr i64 %2 to i32*
%6 = bitcast i64* %arg2 to i16*
store i16 17, i16* %6, align 2
%7 = load i32, i32* %5, align 4
%8 = add i64 %4, 4
%9 = inttoptr i64 %8 to i32*
store i32 %7, i32* %9, align 4
%10 = add i64 %2, 4
%11 = inttoptr i64 %10 to i32*
%12 = load i32, i32* %11, align 4
%13 = trunc i32 %12 to i16
%14 = add i64 %4, 8
%15 = inttoptr i64 %14 to i16*
store i16 %13, i16* %15, align 2
%16 = add i64 %4, 10
%17 = inttoptr i64 %16 to i8*
store i8 0, i8* %17, align 1
%18 = call i64 @FUNC()
%19 = load i32, i32* %5, align 4
%20 = call i64 @FUNC(i64 %0)
%21 = zext i32 %19 to i64
%22 = and i64 %20, 4294967295
%23 = call i64 @FUNC(i64 %22, i64 %21)
%24 = icmp eq i64 %23, 0
br i1 %24, label LBL_3, label LBL_2
LBL_2:
%25 = inttoptr i64 %23 to i32*
%26 = load i32, i32* %25, align 4
%27 = trunc i32 %26 to i16
%28 = add i64 %4, 12
%29 = inttoptr i64 %28 to i16*
store i16 %27, i16* %29, align 2
%30 = add i64 %23, 4
%31 = inttoptr i64 %30 to i32*
%32 = load i32, i32* %31, align 4
%33 = trunc i32 %32 to i8
%34 = add i64 %4, 14
%35 = inttoptr i64 %34 to i8*
store i8 %33, i8* %35, align 1
%36 = load i32, i32* %31, align 4
%37 = add i64 %23, 8
%38 = add i64 %4, 15
%39 = inttoptr i64 %38 to i64*
%40 = inttoptr i64 %37 to i64*
%41 = call i64* @memcpy(i64* %39, i64* %40, i32 %36)
store i8* %35, i8** %.pre-phi3.reg2mem
br label LBL_4
LBL_3:
%42 = add i64 %4, 12
%43 = inttoptr i64 %42 to i16*
store i16 0, i16* %43, align 2
%44 = add i64 %4, 14
%45 = inttoptr i64 %44 to i8*
store i8 0, i8* %45, align 1
store i8* %45, i8** %.pre-phi3.reg2mem
br label LBL_4
LBL_4:
%.pre-phi3.reload = load i8*, i8** %.pre-phi3.reg2mem
%46 = call i64 @FUNC()
%47 = load i8, i8* %.pre-phi3.reload, align 1
%48 = zext i8 %47 to i32
%49 = add nuw nsw i32 %48, 15
%50 = bitcast i64* %arg3 to i32*
store i32 %49, i32* %50, align 4
store i64 0, i64* %storemerge.reg2mem
br label LBL_5
LBL_5:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
ret i64 %storemerge.reload
uselistorder i64 %4, { 3, 4, 0, 1, 2, 5, 6, 7 }
uselistorder i8** %.pre-phi3.reg2mem, { 0, 2, 1 }
uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 }
uselistorder label LBL_5, { 1, 0 }
}
|
0
|
CompRealVul
|
av_tree_insert_2598
|
av_tree_insert
|
define i64 @FUNC(i64 %arg1, i64 %arg2, i64 %arg3, i64 %arg4) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%rcx.0.reg2mem = alloca i64
%.reg2mem = alloca i32
%storemerge.reg2mem = alloca i32
%sv_0.0.reg2mem = alloca i64
%sv_1.0.reg2mem = alloca i64
%sv_2 = alloca i64, align 8
%sv_3 = alloca i64, align 8
%0 = icmp eq i64 %arg1, 0
br i1 %0, label LBL_17, label LBL_1
LBL_1:
%1 = trunc i64 %arg1 to i32
%sext = mul i64 %arg1, 4294967296
%2 = ashr exact i64 %sext, 32
%3 = icmp eq i32 %1, 0
%4 = icmp eq i1 %3, false
store i64 %arg2, i64* %sv_1.0.reg2mem
store i64 %2, i64* %sv_0.0.reg2mem
br i1 %4, label LBL_7, label LBL_2
LBL_2:
%5 = icmp eq i64 %arg3, 0
store i64 %arg1, i64* %rax.0.reg2mem
br i1 %5, label LBL_3, label LBL_18
LBL_3:
%6 = add i64 %arg1, 8
%7 = inttoptr i64 %6 to i64*
%8 = load i64, i64* %7, align 8
%9 = icmp eq i64 %8, 0
%10 = icmp eq i1 %9, false
br i1 %10, label LBL_5, label LBL_4
LBL_4:
%11 = add i64 %arg1, 16
%12 = inttoptr i64 %11 to i64*
%13 = load i64, i64* %12, align 8
%14 = icmp eq i64 %13, 0
br i1 %14, label LBL_6, label LBL_5
LBL_5:
%15 = ptrtoint i64* %sv_3 to i64
%16 = zext i1 %9 to i64
%17 = mul i64 %16, 8
%18 = add i64 %17, %6
%19 = inttoptr i64 %18 to i64*
%20 = load i64, i64* %19, align 8
%21 = call i64 @FUNC(i64 %20, i64 %arg2, i64 0, i64* nonnull %sv_2)
%22 = add i64 %15, -64
%23 = add i64 %22, %17
%24 = inttoptr i64 %23 to i64*
%25 = load i64, i64* %24, align 8
%26 = inttoptr i64 %arg1 to i64*
store i64 %25, i64* %26, align 8
%27 = sext i1 %9 to i64
store i64 %20, i64* %sv_1.0.reg2mem
store i64 %27, i64* %sv_0.0.reg2mem
br label LBL_7
LBL_6:
%28 = inttoptr i64 %arg4 to i64*
store i64 %arg1, i64* %28, align 8
%29 = inttoptr i64 %arg1 to i64*
store i64 0, i64* %29, align 8
store i64 0, i64* %rax.0.reg2mem
br label LBL_18
LBL_7:
%sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem
%sv_1.0.reload = load i64, i64* %sv_1.0.reg2mem
%30 = udiv i64 %sv_0.0.reload, 268435456
%31 = and i64 %30, 8
%32 = add i64 %31, %arg1
%33 = add i64 %32, 8
%34 = call i64 @FUNC(i64 %33, i64 %sv_1.0.reload, i64 %arg3, i64 %arg4)
%35 = icmp eq i64 %34, 0
%36 = icmp eq i1 %35, false
br i1 %36, label LBL_16, label LBL_8
LBL_8:
%37 = trunc i64 %sv_0.0.reload to i32
%38 = icmp slt i32 %37, 0
%39 = icmp eq i64 %arg4, 0
%40 = icmp eq i1 %39, false
%41 = icmp ne i1 %38, %40
%42 = zext i1 %41 to i32
%43 = add i64 %arg1, 24
%44 = inttoptr i64 %43 to i32*
%45 = load i32, i32* %44, align 4
%46 = mul i32 %42, 2
%47 = add nsw i32 %46, -1
%48 = add i32 %47, %45
store i32 %48, i32* %44, align 4
%49 = urem i32 %48, 2
%50 = icmp eq i32 %49, 0
%51 = icmp eq i1 %50, false
%52 = icmp eq i32 %48, 0
%or.cond = or i1 %52, %51
br i1 %or.cond, label LBL_8.LBL_15_crit_edge, label LBL_10
LBL_9:
%.pre = add i64 %32, 32
%.pre2 = inttoptr i64 %.pre to i32*
%.pre4 = load i32, i32* %.pre2, align 4
store i32 %.pre4, i32* %.reg2mem
store i64 %arg4, i64* %rcx.0.reg2mem
br label LBL_15
LBL_10:
%53 = mul i32 %42, 8
%54 = zext i32 %53 to i64
%55 = add i64 %arg1, 8
%56 = add i64 %55, %54
%57 = inttoptr i64 %56 to i64*
%58 = load i64, i64* %57, align 8
%59 = add i64 %58, 24
%60 = inttoptr i64 %59 to i32*
%61 = load i32, i32* %60, align 4
%62 = mul i32 %61, 2
%63 = sub i32 0, %48
%64 = icmp eq i32 %62, %63
%65 = icmp eq i1 %64, false
br i1 %65, label LBL_12, label LBL_11
LBL_11:
%66 = xor i32 %53, 8
%67 = zext i32 %66 to i64
%68 = add nuw nsw i64 %67, 8
%69 = add i64 %58, %68
%70 = inttoptr i64 %69 to i64*
%71 = load i64, i64* %70, align 8
%72 = inttoptr i64 %arg1 to i64*
store i64 %71, i64* %72, align 8
%73 = load i64, i64* %57, align 8
%74 = add i64 %32, 16
%75 = add i64 %74, %54
%76 = inttoptr i64 %75 to i64*
%77 = load i64, i64* %76, align 8
%78 = add i64 %73, %68
%79 = inttoptr i64 %78 to i64*
store i64 %77, i64* %79, align 8
%80 = load i64, i64* %57, align 8
store i64 %80, i64* %76, align 8
%81 = add i64 %74, %67
%82 = inttoptr i64 %81 to i64*
%83 = load i64, i64* %82, align 8
store i64 %83, i64* %57, align 8
store i64 %arg1, i64* %82, align 8
%84 = add i64 %32, 32
%85 = inttoptr i64 %84 to i32*
%86 = load i32, i32* %85, align 4
%87 = icmp eq i32 %86, 0
%88 = icmp slt i32 %86, 0
%89 = icmp eq i1 %88, false
%90 = icmp eq i1 %87, false
%91 = icmp eq i1 %89, %90
%92 = inttoptr i64 %74 to i64*
%93 = load i64, i64* %92, align 8
%94 = sext i1 %91 to i32
%95 = add i64 %93, 24
%96 = inttoptr i64 %95 to i32*
store i32 %94, i32* %96, align 4
%97 = load i32, i32* %85, align 4
%98 = icmp slt i32 %97, 0
%99 = zext i1 %98 to i32
%100 = add i64 %32, 24
%101 = inttoptr i64 %100 to i64*
%102 = load i64, i64* %101, align 8
%103 = add i64 %102, 24
%104 = inttoptr i64 %103 to i32*
store i32 %99, i32* %104, align 4
store i32 0, i32* %85, align 4
store i32 0, i32* %.reg2mem
store i64 %arg1, i64* %rcx.0.reg2mem
br label LBL_15
LBL_12:
%105 = inttoptr i64 %arg1 to i64*
store i64 %58, i64* %105, align 8
%106 = load i64, i64* %57, align 8
%107 = xor i32 %53, 8
%108 = zext i32 %107 to i64
%109 = add nuw nsw i64 %108, 8
%110 = add i64 %109, %106
%111 = inttoptr i64 %110 to i64*
%112 = load i64, i64* %111, align 8
store i64 %112, i64* %57, align 8
%113 = add i64 %32, 16
%114 = add i64 %113, %108
%115 = inttoptr i64 %114 to i64*
store i64 %arg1, i64* %115, align 8
%116 = add i64 %32, 32
%117 = inttoptr i64 %116 to i32*
%118 = load i32, i32* %117, align 4
%119 = icmp eq i32 %118, 0
store i32 0, i32* %storemerge.reg2mem
br i1 %119, label LBL_13, label LBL_14
LBL_13:
%120 = load i32, i32* %44, align 4
%121 = ashr i32 %120, 1
store i32 %121, i32* %storemerge.reg2mem
br label LBL_14
LBL_14:
%storemerge.reload = load i32, i32* %storemerge.reg2mem
store i32 %storemerge.reload, i32* %44, align 4
%122 = sub nsw i32 0, %storemerge.reload
store i32 %122, i32* %117, align 4
store i32 %122, i32* %.reg2mem
store i64 %arg1, i64* %rcx.0.reg2mem
br label LBL_15
LBL_15:
%rcx.0.reload = load i64, i64* %rcx.0.reg2mem
%.reload = load i32, i32* %.reg2mem
%123 = icmp eq i32 %.reload, 0
%124 = icmp eq i64 %rcx.0.reload, 0
%125 = icmp eq i1 %124, false
%126 = icmp eq i1 %125, %123
store i64 %sv_1.0.reload, i64* %rax.0.reg2mem
br i1 %126, label LBL_16, label LBL_18
LBL_16:
store i64 %34, i64* %rax.0.reg2mem
br label LBL_18
LBL_17:
call void @llvm.trap()
unreachable
LBL_18:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i32 %storemerge.reload, { 1, 0 }
uselistorder i64 %108, { 1, 0 }
uselistorder i32 %86, { 1, 0 }
uselistorder i64 %74, { 2, 0, 1 }
uselistorder i64 %58, { 1, 0, 2 }
uselistorder i64* %57, { 4, 3, 0, 1, 2, 5 }
uselistorder i32 %53, { 1, 2, 0 }
uselistorder i32 %48, { 1, 2, 0, 3 }
uselistorder i32* %44, { 1, 0, 2, 3 }
uselistorder i32 %42, { 1, 0 }
uselistorder i64 %32, { 1, 2, 3, 4, 5, 0, 6 }
uselistorder i1 %9, { 1, 0, 2 }
uselistorder i32* %storemerge.reg2mem, { 0, 2, 1 }
uselistorder i32* %.reg2mem, { 0, 2, 1, 3 }
uselistorder i64* %rcx.0.reg2mem, { 0, 2, 1, 3 }
uselistorder i64* %rax.0.reg2mem, { 0, 4, 1, 3, 2 }
uselistorder i32 8, { 1, 2, 0 }
uselistorder i32 2, { 0, 2, 1 }
uselistorder i64 24, { 1, 0, 2, 3, 4 }
uselistorder i64 8, { 3, 4, 1, 5, 2, 0, 6 }
uselistorder i1 false, { 1, 2, 0, 3, 4, 5, 6, 7, 8 }
uselistorder i32 0, { 6, 7, 1, 8, 0, 9, 2, 10, 11, 5, 4, 12, 3, 13 }
uselistorder i64 32, { 1, 2, 0, 3 }
uselistorder i64 %arg4, { 0, 2, 3, 1 }
uselistorder i64 %arg3, { 1, 0 }
uselistorder i64 %arg2, { 1, 0 }
uselistorder i64 %arg1, { 2, 13, 14, 1, 11, 12, 5, 15, 4, 6, 10, 7, 9, 8, 0, 3, 16, 17 }
uselistorder label LBL_18, { 2, 0, 3, 1 }
uselistorder label LBL_15, { 1, 2, 0 }
uselistorder label LBL_14, { 1, 0 }
}
|
0
|
CompRealVul
|
init_mi_uptime_4246
|
init_mi_uptime
|
define i64 @FUNC() local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%0 = load i8*, i8** @gv_0, align 8
%1 = icmp eq i8* %0, null
store i64 0, i64* %rax.0.reg2mem
br i1 %1, label LBL_1, label LBL_4
LBL_1:
%2 = call i32 @time(i32* bitcast (i32** @gv_1 to i32*))
%3 = call i8* @ctime(i32* bitcast (i32** @gv_1 to i32*))
%4 = call i32 @strlen(i8* %3)
%5 = add i32 %4, -1
store i32 %5, i32* @gv_2, align 4
%6 = sext i32 %5 to i64
%7 = call i64 @FUNC(i64 %6)
%8 = inttoptr i64 %7 to i8*
store i8* %8, i8** @gv_0, align 8
%9 = icmp eq i64 %7, 0
%10 = icmp eq i1 %9, false
br i1 %10, label LBL_3, label LBL_2
LBL_2:
%11 = call i64 @FUNC(i8* getelementptr inbounds ([17 x i8], [17 x i8]* @gv_3, i64 0, i64 0))
store i64 4294967295, i64* %rax.0.reg2mem
br label LBL_4
LBL_3:
%12 = load i32, i32* @gv_2, align 4
%13 = inttoptr i64 %7 to i64*
%14 = bitcast i8* %3 to i64*
%15 = call i64* @memcpy(i64* %13, i64* %14, i32 %12)
store i64 0, i64* %rax.0.reg2mem
br label LBL_4
LBL_4:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64* %rax.0.reg2mem, { 0, 3, 2, 1 }
uselistorder i32* @gv_2, { 1, 0 }
uselistorder label LBL_4, { 1, 2, 0 }
}
|
0
|
CompRealVul
|
follow_down_10438
|
follow_down
|
define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%.in.reg2mem = alloca i64
%.reg2mem = alloca i64
%0 = ptrtoint i64* %arg1 to i64
%1 = and i64 %0, 4294967295
%2 = call i64 @FUNC(i64 %1)
%3 = urem i64 %2, 2
%4 = call i64 @FUNC(i64 %3)
%5 = trunc i64 %4 to i32
%6 = icmp eq i32 %5, 0
%7 = icmp eq i1 %6, false
store i64 0, i64* %rax.0.reg2mem
br i1 %7, label LBL_1, label LBL_8
LBL_1:
%8 = trunc i64 %0 to i32
%9 = icmp slt i32 %8, 0
%10 = icmp eq i1 %9, false
%11 = add i64 %0, 8
%12 = inttoptr i64 %11 to i64*
store i64 %3, i64* %.reg2mem
store i64 %2, i64* %.in.reg2mem
br label LBL_2
LBL_2:
%.in.reload = load i64, i64* %.in.reg2mem
%13 = trunc i64 %.in.reload to i32
%14 = and i32 %13, 2
%15 = icmp eq i32 %14, 0
br i1 %15, label LBL_5, label LBL_3
LBL_3:
%.reload = load i64, i64* %.reg2mem
%16 = or i64 %.reload, 8
%17 = inttoptr i64 %16 to i64*
%18 = load i64, i64* %17, align 8
%19 = icmp eq i64 %18, 0
%20 = zext i1 %19 to i64
%21 = call i64 @FUNC(i64 %20)
%22 = select i1 %19, i64 9, i64 8
%23 = inttoptr i64 %22 to i64*
%24 = load i64, i64* %23, align 8
%25 = inttoptr i64 %24 to i64*
%26 = load i64, i64* %25, align 8
%27 = icmp eq i64 %26, 0
%28 = zext i1 %27 to i64
%29 = call i64 @FUNC(i64 %28)
br i1 %10, label LBL_5, label LBL_4
LBL_4:
%30 = icmp eq i32 %8, -21
%. = select i1 %30, i64 0, i64 %1
store i64 %., i64* %rax.0.reg2mem
br label LBL_8
LBL_5:
%31 = and i32 %13, 4
%32 = icmp eq i32 %31, 0
store i64 0, i64* %rax.0.reg2mem
br i1 %32, label LBL_8, label LBL_6
LBL_6:
%33 = call i64 @FUNC(i64 %0)
%34 = icmp eq i64 %33, 0
store i64 0, i64* %rax.0.reg2mem
br i1 %34, label LBL_8, label LBL_7
LBL_7:
%35 = call i64 @FUNC(i64 %0)
%36 = load i64, i64* %12, align 8
%37 = call i64 @FUNC(i64 %36)
store i64 %33, i64* %12, align 8
%38 = inttoptr i64 %33 to i64*
%39 = load i64, i64* %38, align 8
%40 = call i64 @FUNC(i64 %39)
store i64 %40, i64* %arg1, align 8
%41 = and i64 %39, 4294967295
%42 = call i64 @FUNC(i64 %41)
%43 = urem i64 %42, 2
%44 = call i64 @FUNC(i64 %43)
%45 = trunc i64 %44 to i32
%46 = icmp eq i32 %45, 0
%47 = icmp eq i1 %46, false
store i64 %43, i64* %.reg2mem
store i64 %42, i64* %.in.reg2mem
store i64 0, i64* %rax.0.reg2mem
br i1 %47, label LBL_2, label LBL_8
LBL_8:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i32 %8, { 1, 0 }
uselistorder i64 %0, { 1, 4, 3, 2, 0 }
uselistorder i64* %.reg2mem, { 1, 0, 2 }
uselistorder i64* %.in.reg2mem, { 1, 0, 2 }
uselistorder i64* %rax.0.reg2mem, { 0, 3, 1, 2, 5, 4 }
uselistorder i64 (i64)* @BUG_ON, { 1, 0 }
uselistorder i64 8, { 1, 0, 2 }
uselistorder i1 false, { 2, 1, 0 }
uselistorder i32 0, { 4, 1, 3, 2, 0, 5 }
uselistorder i64 (i64)* @unlikely, { 1, 0 }
uselistorder i64 (i64)* @ACCESS_ONCE, { 1, 0 }
uselistorder label LBL_8, { 2, 0, 1, 4, 3 }
uselistorder label LBL_2, { 1, 0 }
}
|
0
|
CompRealVul
|
scm_fp_copy_6200
|
scm_fp_copy
|
define i64 @FUNC(i32* %arg1, i64* %arg2) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%rax.0.reg2mem = alloca i64
%sv_0.01.reg2mem = alloca i64
%storemerge2.reg2mem = alloca i32
%sv_1.0.reg2mem = alloca i64
%.pre-phi.reg2mem = alloca i32*
%.pre-phi6.reg2mem = alloca i32*
%1 = load i64, i64* %0
%2 = ptrtoint i32* %arg1 to i64
%3 = call i64 @FUNC(i64 %2)
%sext = mul i64 %1, 4294967296
%4 = ashr exact i64 %sext, 32
%5 = add nsw i64 %4, 17179869176
%6 = udiv i64 %5, 4
%7 = trunc i64 %6 to i32
%8 = icmp eq i32 %7, 0
%9 = icmp slt i32 %7, 0
%10 = icmp eq i1 %9, false
%11 = icmp eq i1 %8, false
%12 = icmp eq i1 %10, %11
store i64 0, i64* %rax.0.reg2mem
br i1 %12, label LBL_1, label LBL_15
LBL_1:
%13 = icmp slt i32 %7, 257
store i64 4294967274, i64* %rax.0.reg2mem
br i1 %13, label LBL_2, label LBL_15
LBL_2:
%14 = icmp eq i64* %arg2, null
%15 = icmp eq i1 %14, false
br i1 %15, label LBL_2.LBL_6_crit_edge, label LBL_4
LBL_3:
%16 = ptrtoint i64* %arg2 to i64
%.pre = bitcast i64* %arg2 to i32*
%.pre3 = add i64 %16, 4
%.pre5 = inttoptr i64 %.pre3 to i32*
store i32* %.pre5, i32** %.pre-phi6.reg2mem
store i32* %.pre, i32** %.pre-phi.reg2mem
store i64 %16, i64* %sv_1.0.reg2mem
br label LBL_6
LBL_4:
%17 = call i64 @FUNC(i64 2064, i64 0)
%18 = icmp eq i64 %17, 0
%19 = icmp eq i1 %18, false
store i64 4294967284, i64* %rax.0.reg2mem
br i1 %19, label LBL_5, label LBL_15
LBL_5:
store i64 %17, i64* %arg2, align 8
%20 = inttoptr i64 %17 to i32*
store i32 0, i32* %20, align 4
%21 = add i64 %17, 4
%22 = inttoptr i64 %21 to i32*
store i32 256, i32* %22, align 4
%23 = add i64 %17, 8
%24 = inttoptr i64 %23 to i64*
store i64 0, i64* %24, align 8
store i32* %22, i32** %.pre-phi6.reg2mem
store i32* %20, i32** %.pre-phi.reg2mem
store i64 %17, i64* %sv_1.0.reg2mem
br label LBL_6
LBL_6:
%.pre-phi.reload = load i32*, i32** %.pre-phi.reg2mem
%.pre-phi6.reload = load i32*, i32** %.pre-phi6.reg2mem
%25 = load i32, i32* %.pre-phi.reload, align 4
%26 = add i32 %25, %7
%27 = load i32, i32* %.pre-phi6.reload, align 4
%28 = icmp ugt i32 %26, %27
store i64 4294967274, i64* %rax.0.reg2mem
br i1 %28, label LBL_15, label LBL_7
LBL_7:
%sv_1.0.reload = load i64, i64* %sv_1.0.reg2mem
%29 = icmp sgt i32 %7, 0
br i1 %29, label LBL_8, label LBL_12
LBL_8:
%30 = add i64 %sv_1.0.reload, 16
%31 = sext i32 %25 to i64
%32 = mul i64 %31, 8
%33 = add i64 %30, %32
store i32 0, i32* %storemerge2.reg2mem
store i64 %33, i64* %sv_0.01.reg2mem
br label LBL_9
LBL_9:
%storemerge2.reload = load i32, i32* %storemerge2.reg2mem
%34 = sext i32 %storemerge2.reload to i64
%35 = mul i64 %34, 4
%36 = add i64 %35, %3
%37 = inttoptr i64 %36 to i32*
%38 = load i32, i32* %37, align 4
%39 = icmp slt i32 %38, 0
store i64 4294967287, i64* %rax.0.reg2mem
br i1 %39, label LBL_15, label LBL_10
LBL_10:
%40 = zext i32 %38 to i64
%41 = call i64 @FUNC(i64 %40)
%42 = icmp eq i64 %41, 0
%43 = icmp eq i1 %42, false
store i64 4294967287, i64* %rax.0.reg2mem
br i1 %43, label LBL_11, label LBL_15
LBL_11:
%sv_0.01.reload = load i64, i64* %sv_0.01.reg2mem
%44 = add i64 %sv_0.01.reload, 8
%45 = inttoptr i64 %sv_0.01.reload to i64*
store i64 %41, i64* %45, align 8
%46 = load i32, i32* %.pre-phi.reload, align 4
%47 = add i32 %46, 1
store i32 %47, i32* %.pre-phi.reload, align 4
%48 = add nuw i32 %storemerge2.reload, 1
%49 = icmp slt i32 %48, %7
store i32 %48, i32* %storemerge2.reg2mem
store i64 %44, i64* %sv_0.01.reg2mem
br i1 %49, label LBL_9, label LBL_12
LBL_12:
%50 = add i64 %sv_1.0.reload, 8
%51 = inttoptr i64 %50 to i64*
%52 = load i64, i64* %51, align 8
%53 = icmp eq i64 %52, 0
%54 = icmp eq i1 %53, false
br i1 %54, label LBL_14, label LBL_13
LBL_13:
%55 = call i64 @FUNC()
%56 = call i64 @FUNC(i64 %55)
store i64 %56, i64* %51, align 8
br label LBL_14
LBL_14:
%57 = and i64 %6, 4294967295
store i64 %57, i64* %rax.0.reg2mem
br label LBL_15
LBL_15:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i32 %25, { 1, 0 }
uselistorder i32* %.pre-phi.reload, { 1, 0, 2 }
uselistorder i32 %7, { 2, 1, 0, 3, 5, 4 }
uselistorder i64 %6, { 1, 0 }
uselistorder i32* %storemerge2.reg2mem, { 2, 0, 1 }
uselistorder i64* %sv_0.01.reg2mem, { 2, 0, 1 }
uselistorder i64* %rax.0.reg2mem, { 0, 7, 2, 1, 3, 4, 5, 6 }
uselistorder i64 4294967287, { 1, 0 }
uselistorder i1 false, { 2, 1, 3, 4, 5, 0 }
uselistorder i64 4, { 0, 3, 2, 1 }
uselistorder i64* %arg2, { 1, 0, 3, 2 }
uselistorder label LBL_15, { 6, 1, 0, 2, 3, 4, 5 }
uselistorder label LBL_9, { 1, 0 }
uselistorder label LBL_6, { 1, 0 }
}
|
0
|
CompRealVul
|
stringin_6355
|
stringin
|
define i64 @FUNC(i64* %arg1, i64 %arg2) local_unnamed_addr {
LBL_0:
%storemerge.reg2mem = alloca i64
%storemerge3.lcssa.reg2mem = alloca i32
%storemerge35.reg2mem = alloca i32
%0 = ptrtoint i64* %arg1 to i64
%1 = trunc i64 %arg2 to i32
%2 = icmp sgt i32 %1, 0
store i32 0, i32* %storemerge35.reg2mem
store i32 0, i32* %storemerge3.lcssa.reg2mem
br i1 %2, label LBL_1, label LBL_4
LBL_1:
%storemerge35.reload = load i32, i32* %storemerge35.reg2mem
%3 = load %_IO_FILE*, %_IO_FILE** @gv_0, align 8
%4 = sext i32 %storemerge35.reload to i64
%5 = add i64 %4, %0
%6 = inttoptr i64 %5 to i64*
%7 = call i32 @fread(i64* %6, i32 1, i32 1, %_IO_FILE* %3)
%8 = icmp eq i32 %7, 1
store i64 4294967295, i64* %storemerge.reg2mem
br i1 %8, label LBL_2, label LBL_5
LBL_2:
%9 = inttoptr i64 %5 to i8*
%10 = load i8, i8* %9, align 1
%11 = icmp eq i8 %10, 0
store i32 %storemerge35.reload, i32* %storemerge3.lcssa.reg2mem
br i1 %11, label LBL_4, label LBL_3
LBL_3:
%12 = add nuw i32 %storemerge35.reload, 1
%13 = icmp slt i32 %12, %1
store i32 %12, i32* %storemerge35.reg2mem
store i32 %12, i32* %storemerge3.lcssa.reg2mem
br i1 %13, label LBL_1, label LBL_4
LBL_4:
%sext = mul i64 %arg2, 4294967296
%storemerge3.lcssa.reload = load i32, i32* %storemerge3.lcssa.reg2mem
%14 = ashr exact i64 %sext, 32
%15 = add i64 %0, -1
%16 = add i64 %15, %14
%17 = inttoptr i64 %16 to i8*
store i8 0, i8* %17, align 1
%18 = zext i32 %storemerge3.lcssa.reload to i64
store i64 %18, i64* %storemerge.reg2mem
br label LBL_5
LBL_5:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
ret i64 %storemerge.reload
uselistorder i32 %storemerge35.reload, { 1, 0, 2 }
uselistorder i32 %1, { 1, 0 }
uselistorder i64 %0, { 1, 0 }
uselistorder i32* %storemerge35.reg2mem, { 2, 0, 1 }
uselistorder i32* %storemerge3.lcssa.reg2mem, { 0, 2, 1, 3 }
uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 }
uselistorder i8 0, { 1, 2, 0 }
uselistorder label LBL_5, { 1, 0 }
uselistorder label LBL_1, { 1, 0 }
}
|
0
|
CompRealVul
|
prep_compound_page_18850
|
prep_compound_page
|
define i64 @FUNC(i64 %arg1, i64 %arg2) local_unnamed_addr {
LBL_0:
%storemerge1.lcssa.reg2mem = alloca i64
%indvars.iv.reg2mem = alloca i64
%0 = trunc i64 %arg2 to i32
%1 = urem i32 %0, 32
%2 = shl i32 1, %1
%3 = call i64 @FUNC(i64 %arg1, i64 4198725)
%4 = call i64 @FUNC(i64 %arg1, i64 %arg2)
%5 = call i64 @FUNC(i64 %arg1)
%6 = icmp sgt i32 %2, 1
store i64 1, i64* %storemerge1.lcssa.reg2mem
br i1 %6, label LBL_1, label LBL_3
LBL_1:
%wide.trip.count = zext i32 %2 to i64
store i64 1, i64* %indvars.iv.reg2mem
br label LBL_2
LBL_2:
%indvars.iv.reload = load i64, i64* %indvars.iv.reg2mem
%7 = mul i64 %indvars.iv.reload, 8
%8 = add i64 %7, %arg1
%9 = call i64 @FUNC(i64 %8)
%10 = inttoptr i64 %8 to i64*
store i64 %arg1, i64* %10, align 8
%indvars.iv.next = add nuw nsw i64 %indvars.iv.reload, 1
%exitcond = icmp eq i64 %indvars.iv.next, %wide.trip.count
store i64 %indvars.iv.next, i64* %indvars.iv.reg2mem
store i64 %wide.trip.count, i64* %storemerge1.lcssa.reg2mem
br i1 %exitcond, label LBL_3, label LBL_2
LBL_3:
%storemerge1.lcssa.reload = load i64, i64* %storemerge1.lcssa.reg2mem
ret i64 %storemerge1.lcssa.reload
uselistorder i64* %indvars.iv.reg2mem, { 2, 0, 1 }
uselistorder i64 %arg1, { 1, 0, 4, 3, 2 }
uselistorder label LBL_2, { 1, 0 }
}
|
1
|
CompRealVul
|
ghash_flush_8607
|
ghash_flush
|
define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr {
LBL_0:
%storemerge.reg2mem = alloca i64
%0 = ptrtoint i64* %arg2 to i64
%1 = add i64 %0, 16
%2 = inttoptr i64 %1 to i32*
%3 = load i32, i32* %2, align 4
%4 = icmp eq i32 %3, 0
br i1 %4, label LBL_2, label LBL_1
LBL_1:
%5 = ptrtoint i64* %arg1 to i64
%6 = sub i32 16, %3
%7 = sext i32 %6 to i64
%8 = add i64 %7, %0
%9 = inttoptr i64 %8 to i64*
%10 = call i64* @memset(i64* %9, i32 0, i32 %3)
%11 = call i64 @FUNC(i64 1, i64 %5, i64 %0, i64 16)
%12 = trunc i64 %11 to i32
%13 = icmp eq i32 %12, 16
store i64 1, i64* %storemerge.reg2mem
br i1 %13, label LBL_2, label LBL_3
LBL_2:
store i32 0, i32* %2, align 4
store i64 0, i64* %storemerge.reg2mem
br label LBL_3
LBL_3:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
ret i64 %storemerge.reload
uselistorder i32 %3, { 1, 0, 2 }
uselistorder i64 %0, { 1, 0, 2 }
uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 }
uselistorder label LBL_3, { 1, 0 }
}
|
0
|
CompRealVul
|
wolfSSH_SFTP_RecvSetSTAT_13356
|
wolfSSH_SFTP_RecvSetSTAT
|
define i64 @FUNC(i64* %arg1, i64 %arg2, i64* %arg3, i32 %arg4) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%rdi.1.reg2mem = alloca i64
%sv_0.1.reg2mem = alloca i8
%sv_1.1.reg2mem = alloca i64
%sv_2.2.reg2mem = alloca i64
%sv_3 = alloca i32, align 4
%sv_4 = alloca i64, align 8
%sv_5 = alloca i64, align 8
%sv_6 = alloca i64, align 8
%sv_7 = alloca i32, align 4
%sv_8 = alloca i64, align 8
%sv_9 = alloca i32, align 4
store i32 0, i32* %sv_9, align 4
store i64 0, i64* %sv_8, align 8
store i32 0, i32* %sv_7, align 4
store i64 7598826294347064659, i64* %sv_6, align 8
store i64 8367799623835807317, i64* %sv_5, align 8
store i64 8367799623835807317, i64* %sv_4, align 8
%0 = icmp eq i64* %arg1, null
%1 = icmp eq i1 %0, false
store i64 4294967295, i64* %rax.0.reg2mem
br i1 %1, label LBL_1, label LBL_12
LBL_1:
%2 = ptrtoint i64* %arg3 to i64
%3 = call i64 @FUNC(i64 1, i8* getelementptr inbounds ([30 x i8], [30 x i8]* @gv_0, i64 0, i64 0))
%4 = bitcast i32* %sv_3 to i64*
%5 = call i64 @FUNC(i64 %2, i64* nonnull %4)
store i32 4, i32* %sv_9, align 4
%6 = load i32, i32* %sv_3, align 4
%7 = add i32 %6, 4
%8 = icmp ugt i32 %7, %arg4
%9 = icmp eq i1 %8, false
store i64 4294967294, i64* %rax.0.reg2mem
br i1 %9, label LBL_2, label LBL_12
LBL_2:
%10 = add i32 %6, 1
%11 = zext i32 %10 to i64
%12 = call i64 @FUNC(i64 %11, i64 %2, i64 0)
%13 = icmp eq i64 %12, 0
%14 = icmp eq i1 %13, false
store i64 4294967293, i64* %rax.0.reg2mem
br i1 %14, label LBL_3, label LBL_12
LBL_3:
%15 = ptrtoint i64* %arg1 to i64
%16 = ptrtoint i64* %sv_6 to i64
%17 = load i32, i32* %sv_3, align 4
%18 = zext i32 %17 to i64
%19 = add i64 %2, 4
%20 = call i64 @FUNC(i64 %12, i64 %19, i64 %18)
%21 = load i32, i32* %sv_3, align 4
%22 = add i32 %21, 4
store i32 %22, i32* %sv_9, align 4
%23 = zext i32 %21 to i64
%24 = add i64 %12, %23
%25 = inttoptr i64 %24 to i8*
store i8 0, i8* %25, align 1
%26 = call i64 @FUNC(i64 %15, i64 %12)
%27 = trunc i64 %26 to i32
%28 = icmp slt i32 %27, 0
%29 = icmp eq i1 %28, false
%30 = icmp eq i1 %29, false
store i64 4294967292, i64* %sv_2.2.reg2mem
store i64 %16, i64* %sv_1.1.reg2mem
store i8 0, i8* %sv_0.1.reg2mem
store i64 %15, i64* %rdi.1.reg2mem
br i1 %30, label LBL_7, label LBL_4
LBL_4:
%31 = zext i32 %arg4 to i64
%32 = call i64 @FUNC(i64 %15, i64* nonnull %sv_8, i64 %2, i32* nonnull %sv_9, i64 %31)
%33 = trunc i64 %32 to i32
%34 = icmp eq i32 %33, 0
%35 = ptrtoint i64* %sv_4 to i64
%not. = icmp ne i1 %34, true
%spec.select6 = zext i1 %not. to i8
%36 = icmp eq i1 %34, false
store i64 4294967291, i64* %sv_2.2.reg2mem
store i64 %35, i64* %sv_1.1.reg2mem
store i8 %spec.select6, i8* %sv_0.1.reg2mem
store i64 %15, i64* %rdi.1.reg2mem
br i1 %36, label LBL_7, label LBL_5
LBL_5:
%37 = call i64 @FUNC(i64 %15, i64 %12, i64* nonnull %sv_8)
%38 = trunc i64 %37 to i32
%39 = icmp eq i32 %38, 0
store i64 0, i64* %sv_2.2.reg2mem
store i64 %16, i64* %sv_1.1.reg2mem
store i8 %spec.select6, i8* %sv_0.1.reg2mem
store i64 %15, i64* %rdi.1.reg2mem
br i1 %39, label LBL_7, label LBL_6
LBL_6:
%40 = call i64 @FUNC(i64 1, i8* getelementptr inbounds ([47 x i8], [47 x i8]* @gv_1, i64 0, i64 0))
%41 = ptrtoint i64* %sv_5 to i64
store i64 4294967291, i64* %sv_2.2.reg2mem
store i64 %41, i64* %sv_1.1.reg2mem
store i8 1, i8* %sv_0.1.reg2mem
store i64 1, i64* %rdi.1.reg2mem
br label LBL_7
LBL_7:
%rdi.1.reload = load i64, i64* %rdi.1.reg2mem
%sv_0.1.reload = load i8, i8* %sv_0.1.reg2mem
%sv_1.1.reload = load i64, i64* %sv_1.1.reg2mem
%42 = call i64 @FUNC(i64 %12, i64 %rdi.1.reload, i64 0)
%43 = trunc i64 %arg2 to i32
%44 = call i64 @FUNC(i64 %15, i8 %sv_0.1.reload, i32 %43, i64 %sv_1.1.reload, i8* getelementptr inbounds ([8 x i8], [8 x i8]* @gv_2, i64 0, i64 0), i64 0, i32* nonnull %sv_7)
%45 = trunc i64 %44 to i32
%46 = icmp eq i32 %45, -6
store i64 4294967292, i64* %rax.0.reg2mem
br i1 %46, label LBL_8, label LBL_12
LBL_8:
%47 = load i32, i32* %sv_7, align 4
%48 = zext i32 %47 to i64
%49 = call i64 @FUNC(i64 %48, i64 %15, i64 0)
store i64 %49, i64* %sv_8, align 8
%50 = icmp eq i64 %49, 0
%51 = icmp eq i1 %50, false
store i64 4294967293, i64* %rax.0.reg2mem
br i1 %51, label LBL_9, label LBL_12
LBL_9:
%52 = call i64 @FUNC(i64 %15, i8 %sv_0.1.reload, i32 %43, i64 %sv_1.1.reload, i8* getelementptr inbounds ([8 x i8], [8 x i8]* @gv_2, i64 0, i64 0), i64 %49, i32* nonnull %sv_7)
%53 = trunc i64 %52 to i32
%54 = icmp eq i32 %53, 0
br i1 %54, label LBL_11, label LBL_10
LBL_10:
%55 = load i64, i64* %sv_8, align 8
%56 = call i64 @FUNC(i64 %55, i64 %15, i64 0)
store i64 4294967292, i64* %rax.0.reg2mem
br label LBL_12
LBL_11:
%sv_2.2.reload = load i64, i64* %sv_2.2.reg2mem
%57 = load i32, i32* %sv_7, align 4
%58 = load i64, i64* %sv_8, align 8
%59 = call i64 @FUNC(i64 %15, i64 %58, i32 %57)
store i64 %sv_2.2.reload, i64* %rax.0.reg2mem
br label LBL_12
LBL_12:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %sv_1.1.reload, { 1, 0 }
uselistorder i8 %sv_0.1.reload, { 1, 0 }
uselistorder i1 %34, { 1, 0 }
uselistorder i32 %21, { 1, 0 }
uselistorder i64 %16, { 1, 0 }
uselistorder i64 %15, { 6, 5, 7, 8, 9, 1, 4, 2, 3, 0, 10 }
uselistorder i64 %12, { 2, 1, 3, 0, 4, 5 }
uselistorder i32 %6, { 1, 0 }
uselistorder i64 %2, { 3, 0, 2, 1 }
uselistorder i64* %sv_8, { 2, 3, 4, 0, 1, 5 }
uselistorder i32* %sv_7, { 2, 0, 3, 1, 4 }
uselistorder i32* %sv_3, { 2, 1, 0, 3 }
uselistorder i64* %sv_2.2.reg2mem, { 0, 2, 3, 4, 1 }
uselistorder i64* %sv_1.1.reg2mem, { 0, 2, 3, 4, 1 }
uselistorder i8* %sv_0.1.reg2mem, { 0, 2, 3, 4, 1 }
uselistorder i64* %rdi.1.reg2mem, { 0, 2, 3, 4, 1 }
uselistorder i64* %rax.0.reg2mem, { 0, 7, 6, 1, 2, 3, 4, 5 }
uselistorder i64 (i64, i8, i32, i64, i8*, i64, i32*)* @wolfSSH_SFTP_CreateStatus, { 1, 0 }
uselistorder i64 (i64, i64, i64)* @WFREE, { 1, 0 }
uselistorder i64 4294967292, { 1, 0, 2 }
uselistorder i64 (i64, i64, i64)* @WMALLOC, { 1, 0 }
uselistorder i32 4, { 0, 2, 1 }
uselistorder i64 (i64, i8*)* @WLOG, { 1, 0 }
uselistorder i32 0, { 2, 3, 4, 5, 0, 1 }
uselistorder i32 %arg4, { 1, 0 }
uselistorder i64* %arg1, { 1, 0 }
uselistorder label LBL_12, { 5, 6, 0, 1, 2, 3, 4 }
uselistorder label LBL_7, { 1, 2, 3, 0 }
}
|
1
|
CompRealVul
|
ovs_events_plugin_config_7589
|
ovs_events_plugin_config
|
define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%rax.0.reg2mem = alloca i64
%storemerge9.reg2mem = alloca i32
%.reg2mem = alloca i64
%1 = load i64, i64* %0
%sv_0 = alloca i8*, align 8
%sv_1 = alloca i32, align 4
store i32 0, i32* %sv_1, align 4
%2 = trunc i64 %1 to i32
%3 = icmp eq i32 %2, 0
br i1 %3, label LBL_23, label LBL_1
LBL_1:
%4 = ptrtoint i64* %arg1 to i64
%5 = add i64 %4, 8
%6 = inttoptr i64 %5 to i64*
%7 = bitcast i8** %sv_0 to i64*
%8 = bitcast i32* %sv_1 to i64*
%9 = and i64 %1, 4294967295
store i64 0, i64* %.reg2mem
store i32 0, i32* %storemerge9.reg2mem
br label LBL_2
LBL_2:
%storemerge9.reload = load i32, i32* %storemerge9.reg2mem
%.reload = load i64, i64* %.reg2mem
%10 = load i64, i64* %6, align 8
%11 = mul nsw i64 %.reload, 24
%12 = add i64 %10, %11
%13 = add i64 %12, 16
%14 = inttoptr i64 %13 to i64*
%15 = load i64, i64* %14, align 8
%16 = inttoptr i64 %15 to i8*
%17 = call i32 @strcasecmp(i8* getelementptr inbounds ([17 x i8], [17 x i8]* @gv_0, i64 0, i64 0), i8* %16)
%18 = icmp eq i32 %17, 0
%19 = icmp eq i1 %18, false
br i1 %19, label LBL_5, label LBL_3
LBL_3:
%20 = call i64 @FUNC(i64 %12, i64* nonnull @gv_1)
%21 = trunc i64 %20 to i32
%22 = icmp eq i32 %21, 0
br i1 %22, label LBL_22, label LBL_4
LBL_4:
%23 = call i64 @FUNC()
store i64 4294967295, i64* %rax.0.reg2mem
br label LBL_28
LBL_5:
%24 = load i64, i64* %14, align 8
%25 = inttoptr i64 %24 to i8*
%26 = call i32 @strcasecmp(i8* getelementptr inbounds ([8 x i8], [8 x i8]* @gv_2, i64 0, i64 0), i8* %25)
%27 = icmp eq i32 %26, 0
%28 = icmp eq i1 %27, false
br i1 %28, label LBL_8, label LBL_6
LBL_6:
%29 = call i64 @FUNC(i64 %12, i64* nonnull @gv_3, i64 256)
%30 = trunc i64 %29 to i32
%31 = icmp eq i32 %30, 0
br i1 %31, label LBL_22, label LBL_7
LBL_7:
%32 = call i64 @FUNC()
store i64 4294967295, i64* %rax.0.reg2mem
br label LBL_28
LBL_8:
%33 = load i64, i64* %14, align 8
%34 = inttoptr i64 %33 to i8*
%35 = call i32 @strcasecmp(i8* getelementptr inbounds ([5 x i8], [5 x i8]* @gv_4, i64 0, i64 0), i8* %34)
%36 = icmp eq i32 %35, 0
%37 = icmp eq i1 %36, false
br i1 %37, label LBL_12, label LBL_9
LBL_9:
store i8* null, i8** %sv_0, align 8
%38 = call i64 @FUNC(i64 %12, i64* nonnull %7)
%39 = trunc i64 %38 to i32
%40 = icmp eq i32 %39, 0
br i1 %40, label LBL_11, label LBL_10
LBL_10:
%41 = call i64 @FUNC()
store i64 4294967295, i64* %rax.0.reg2mem
br label LBL_28
LBL_11:
%42 = load i8*, i8** %sv_0, align 8
%43 = call i8* @strncpy(i8* bitcast (i8** @gv_5 to i8*), i8* %42, i32 256)
%44 = load i8*, i8** %sv_0, align 8
%45 = ptrtoint i8* %44 to i64
%46 = call i64 @FUNC(i64 %45)
br label LBL_22
LBL_12:
%47 = load i64, i64* %14, align 8
%48 = inttoptr i64 %47 to i8*
%49 = call i32 @strcasecmp(i8* getelementptr inbounds ([7 x i8], [7 x i8]* @gv_6, i64 0, i64 0), i8* %48)
%50 = icmp eq i32 %49, 0
%51 = icmp eq i1 %50, false
br i1 %51, label LBL_15, label LBL_13
LBL_13:
%52 = call i64 @FUNC(i64 %12, i64* nonnull @gv_7, i64 256)
%53 = trunc i64 %52 to i32
%54 = icmp eq i32 %53, 0
br i1 %54, label LBL_22, label LBL_14
LBL_14:
%55 = call i64 @FUNC()
store i64 4294967295, i64* %rax.0.reg2mem
br label LBL_28
LBL_15:
%56 = load i64, i64* %14, align 8
%57 = inttoptr i64 %56 to i8*
%58 = call i32 @strcasecmp(i8* getelementptr inbounds ([11 x i8], [11 x i8]* @gv_8, i64 0, i64 0), i8* %57)
%59 = icmp eq i32 %58, 0
%60 = icmp eq i1 %59, false
br i1 %60, label LBL_18, label LBL_16
LBL_16:
%61 = call i64 @FUNC(i64 %12)
%62 = trunc i64 %61 to i32
%63 = icmp eq i32 %62, 0
br i1 %63, label LBL_22, label LBL_17
LBL_17:
%64 = call i64 @FUNC()
store i64 4294967295, i64* %rax.0.reg2mem
br label LBL_28
LBL_18:
%65 = load i64, i64* %14, align 8
%66 = inttoptr i64 %65 to i8*
%67 = call i32 @strcasecmp(i8* getelementptr inbounds ([15 x i8], [15 x i8]* @gv_9, i64 0, i64 0), i8* %66)
%68 = icmp eq i32 %67, 0
%69 = icmp eq i1 %68, false
br i1 %69, label LBL_21, label LBL_19
LBL_19:
%70 = call i64 @FUNC(i64 %12, i64* nonnull %8)
%71 = trunc i64 %70 to i32
%72 = icmp eq i32 %71, 0
br i1 %72, label LBL_22, label LBL_20
LBL_20:
%73 = call i64 @FUNC()
store i64 4294967295, i64* %rax.0.reg2mem
br label LBL_28
LBL_21:
%74 = load i64, i64* %14, align 8
%75 = load %_IO_FILE*, %_IO_FILE** @gv_10, align 8
%76 = inttoptr i64 %74 to i8*
%77 = call i32 (%_IO_FILE*, i8*, ...) @fprintf(%_IO_FILE* %75, i8* getelementptr inbounds ([51 x i8], [51 x i8]* @gv_11, i64 0, i64 0), i8* %76)
%78 = call i64 @FUNC()
store i64 4294967295, i64* %rax.0.reg2mem
br label LBL_28
LBL_22:
%79 = add i32 %storemerge9.reload, 1
%80 = sext i32 %79 to i64
%81 = icmp sgt i64 %9, %80
store i64 %80, i64* %.reg2mem
store i32 %79, i32* %storemerge9.reg2mem
br i1 %81, label LBL_2, label LBL_23
LBL_23:
%82 = load i8, i8* bitcast (i64* @gv_1 to i8*), align 8
%83 = icmp eq i8 %82, 1
br i1 %83, label LBL_26, label LBL_24
LBL_24:
%84 = load i32, i32* %sv_1, align 4
%85 = trunc i32 %84 to i8
%86 = icmp eq i8 %85, 1
br i1 %86, label LBL_26, label LBL_25
LBL_25:
%87 = load %_IO_FILE*, %_IO_FILE** @gv_10, align 8
%88 = call i32 @fwrite(i64* bitcast ([160 x i8]* @gv_12 to i64*), i32 1, i32 159, %_IO_FILE* %87)
br label LBL_26
LBL_26:
%89 = load i32, i32* %sv_1, align 4
%90 = trunc i32 %89 to i8
%91 = icmp eq i8 %90, 0
store i64 0, i64* %rax.0.reg2mem
br i1 %91, label LBL_28, label LBL_27
LBL_27:
%92 = call i64 @FUNC(i64 0, i8* getelementptr inbounds ([18 x i8], [18 x i8]* @gv_13, i64 0, i64 0), i64 4198866, i64 0, i64 0)
store i64 %92, i64* %rax.0.reg2mem
br label LBL_28
LBL_28:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %12, { 1, 2, 3, 0, 4, 5, 6 }
uselistorder i32* %sv_1, { 2, 1, 3, 0 }
uselistorder i8** %sv_0, { 2, 1, 0, 3 }
uselistorder i64 %1, { 1, 0 }
uselistorder i64* %.reg2mem, { 1, 0, 2 }
uselistorder i32* %storemerge9.reg2mem, { 1, 0, 2 }
uselistorder i64* %rax.0.reg2mem, { 0, 2, 1, 9, 8, 7, 6, 5, 4, 3 }
uselistorder i8 0, { 1, 0 }
uselistorder %_IO_FILE** @gv_10, { 1, 0 }
uselistorder i64 (i64, i64*, i64)* @cf_util_get_string_buffer, { 1, 0 }
uselistorder i64 ()* @ovs_events_config_free, { 6, 5, 4, 3, 2, 1, 0 }
uselistorder i64 (i64, i64*)* @cf_util_get_boolean, { 1, 0 }
uselistorder i64* @gv_1, { 1, 0 }
uselistorder i32 (i8*, i8*)* @strcasecmp, { 5, 4, 3, 2, 1, 0 }
uselistorder i64 0, { 25, 24, 23, 21, 22, 0, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 1, 2, 3, 4, 5, 6, 26, 27, 28, 29 }
uselistorder i32 0, { 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 0, 1, 2 }
uselistorder label LBL_28, { 1, 0, 2, 3, 4, 5, 6, 7, 8 }
uselistorder label LBL_2, { 1, 0 }
}
|
1
|
CompRealVul
|
sbr_hf_calc_npatches_16730
|
sbr_hf_calc_npatches
|
define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr {
LBL_0:
%storemerge.reg2mem = alloca i64
%.reg2mem10 = alloca i32
%sv_0.1.reg2mem = alloca i32
%sv_1.1.reg2mem = alloca i32
%sv_2.1.reg2mem = alloca i32
%.pr.reg2mem = alloca i32
%storemerge1.reg2mem = alloca i32
%sv_3.0.reg2mem = alloca i32
%sv_4.1.reg2mem = alloca i32
%rsi.0.reg2mem = alloca i64
%sv_0.0.reg2mem = alloca i32
%sv_1.0.reg2mem = alloca i32
%sv_2.0.reg2mem = alloca i32
%sv_4.0.reg2mem = alloca i32
%.reg2mem = alloca i32
%sv_0.0.ph.reg2mem = alloca i32
%.pre-phi8.reg2mem = alloca i32*
%storemerge2.reg2mem = alloca i32
%0 = ptrtoint i64* %arg2 to i64
%1 = add i64 %0, 8
%2 = inttoptr i64 %1 to i64*
%3 = load i64, i64* %2, align 8
%4 = inttoptr i64 %3 to i32*
%5 = load i32, i32* %4, align 4
%6 = add i64 %0, 16
%7 = inttoptr i64 %6 to i64*
%8 = load i64, i64* %7, align 8
%9 = add i64 %8, 4
%10 = inttoptr i64 %9 to i32*
%11 = load i32, i32* %10, align 4
%12 = add i64 %0, 56
%13 = inttoptr i64 %12 to i32*
%14 = load i32, i32* %13, align 4
%15 = ashr i32 %14, 1
%16 = add nsw i32 %15, 2048000
%17 = zext i32 %14 to i64
%18 = ashr i32 %16, 31
%19 = zext i32 %16 to i64
%20 = zext i32 %18 to i64
%21 = mul i64 %20, 4294967296
%22 = or i64 %21, %19
%23 = sdiv i64 %22, %17
%24 = add i64 %0, 32
%25 = inttoptr i64 %24 to i32*
store i32 0, i32* %25, align 4
%26 = load i64, i64* %7, align 8
%27 = add i64 %26, 4
%28 = inttoptr i64 %27 to i32*
%29 = load i32, i32* %28, align 4
%30 = add i64 %0, 24
%31 = inttoptr i64 %30 to i64*
%32 = load i64, i64* %31, align 8
%33 = add i64 %32, 4
%34 = inttoptr i64 %33 to i32*
%35 = load i32, i32* %34, align 4
%36 = add i32 %35, %29
%37 = zext i32 %36 to i64
%sext = mul i64 %23, 4294967296
%38 = ashr exact i64 %sext, 32
%39 = icmp slt i64 %38, %37
store i32 0, i32* %storemerge2.reg2mem
br i1 %39, label LBL_1, label LBL_2
LBL_1:
%storemerge2.reload = load i32, i32* %storemerge2.reg2mem
%40 = sext i32 %storemerge2.reload to i64
%41 = mul i64 %40, 4
%42 = add i64 %41, %0
%43 = inttoptr i64 %42 to i32*
%44 = load i32, i32* %43, align 4
%45 = zext i32 %44 to i64
%46 = icmp sgt i64 %38, %45
%47 = add i32 %storemerge2.reload, 1
store i32 %47, i32* %storemerge2.reg2mem
br i1 %46, label LBL_1, label LBL_3
LBL_2:
%48 = add i64 %0, 60
%49 = inttoptr i64 %48 to i32*
%50 = load i32, i32* %49, align 4
store i32* %49, i32** %.pre-phi8.reg2mem
store i32 %50, i32* %sv_0.0.ph.reg2mem
br label LBL_4
LBL_3:
%.pre6 = add i64 %0, 60
%.pre7 = inttoptr i64 %.pre6 to i32*
store i32* %.pre7, i32** %.pre-phi8.reg2mem
store i32 %storemerge2.reload, i32* %sv_0.0.ph.reg2mem
br label LBL_4
LBL_4:
%sv_0.0.ph.reload = load i32, i32* %sv_0.0.ph.reg2mem
%.pre-phi8.reload = load i32*, i32** %.pre-phi8.reg2mem
%51 = add i64 %0, 40
%52 = inttoptr i64 %51 to i64*
%53 = add i64 %0, 48
%54 = inttoptr i64 %53 to i64*
store i32 0, i32* %.reg2mem
store i32 0, i32* %sv_4.0.reg2mem
store i32 %5, i32* %sv_2.0.reg2mem
store i32 %11, i32* %sv_1.0.reg2mem
store i32 %sv_0.0.ph.reload, i32* %sv_0.0.reg2mem
store i64 %0, i64* %rsi.0.reg2mem
br label LBL_5
LBL_5:
%rsi.0.reload = load i64, i64* %rsi.0.reg2mem
%sv_0.0.reload = load i32, i32* %sv_0.0.reg2mem
%sv_1.0.reload = load i32, i32* %sv_1.0.reg2mem
%sv_2.0.reload = load i32, i32* %sv_2.0.reg2mem
%sv_4.0.reload = load i32, i32* %sv_4.0.reg2mem
%.reload = load i32, i32* %.reg2mem
%.pre = load i64, i64* %2, align 8
%.phi.trans.insert = inttoptr i64 %.pre to i32*
%.pre5 = load i32, i32* %.phi.trans.insert, align 4
store i32 %sv_4.0.reload, i32* %sv_4.1.reg2mem
store i32 0, i32* %sv_3.0.reg2mem
store i32 %sv_0.0.reload, i32* %storemerge1.reg2mem
br label LBL_7
LBL_6:
%55 = sext i32 %storemerge1.reload to i64
%56 = mul i64 %55, 4
%57 = add i64 %56, %rsi.0.reload
%58 = inttoptr i64 %57 to i32*
%59 = load i32, i32* %58, align 4
%60 = add i32 %59, %.pre5
%61 = urem i32 %60, 2
%62 = add i32 %storemerge1.reload, -1
store i32 %59, i32* %sv_4.1.reg2mem
store i32 %61, i32* %sv_3.0.reg2mem
store i32 %62, i32* %storemerge1.reg2mem
br label LBL_7
LBL_7:
%storemerge1.reload = load i32, i32* %storemerge1.reg2mem
%63 = icmp eq i32 %storemerge1.reload, %sv_0.0.reload
br i1 %63, label LBL_6, label LBL_8
LBL_8:
%sv_3.0.reload = load i32, i32* %sv_3.0.reg2mem
%sv_4.1.reload = load i32, i32* %sv_4.1.reg2mem
%64 = sub i32 0, %sv_3.0.reload
%65 = sub i32 %64, 1
%66 = add i32 %sv_2.0.reload, %65
%67 = add i32 %66, %.pre5
%68 = zext i32 %67 to i64
%69 = sext i32 %sv_4.1.reload to i64
%70 = icmp sgt i64 %69, %68
br i1 %70, label LBL_6, label LBL_9
LBL_9:
%71 = sub i32 %sv_4.1.reload, %sv_1.0.reload
%72 = load i64, i64* %52, align 8
%73 = sext i32 %.reload to i64
%74 = mul i64 %73, 4
%75 = add i64 %72, %74
%76 = icmp sgt i32 %71, 0
%77 = select i1 %76, i32 %71, i32 0
%78 = inttoptr i64 %75 to i32*
store i32 %77, i32* %78, align 4
%79 = load i64, i64* %2, align 8
%80 = inttoptr i64 %79 to i32*
%81 = load i32, i32* %80, align 4
%82 = sub i32 %81, %sv_3.0.reload
%83 = load i64, i64* %52, align 8
%84 = load i32, i32* %25, align 4
%85 = sext i32 %84 to i64
%86 = mul i64 %85, 4
%87 = add i64 %86, %83
%88 = inttoptr i64 %87 to i32*
%89 = load i32, i32* %88, align 4
%90 = load i64, i64* %54, align 8
%91 = add i64 %86, %90
%92 = sub i32 %82, %89
%93 = inttoptr i64 %91 to i32*
store i32 %92, i32* %93, align 4
%94 = load i64, i64* %52, align 8
%95 = load i32, i32* %25, align 4
%96 = sext i32 %95 to i64
%97 = mul i64 %96, 4
%98 = add i64 %97, %94
%99 = inttoptr i64 %98 to i32*
%100 = load i32, i32* %99, align 4
%101 = icmp slt i32 %100, 1
br i1 %101, label LBL_11, label LBL_10
LBL_10:
%102 = add i32 %95, 1
store i32 %102, i32* %25, align 4
store i32 %102, i32* %.pr.reg2mem
store i32 %sv_4.1.reload, i32* %sv_2.1.reg2mem
store i32 %sv_4.1.reload, i32* %sv_1.1.reg2mem
br label LBL_12
LBL_11:
%103 = load i64, i64* %7, align 8
%104 = add i64 %103, 4
%105 = inttoptr i64 %104 to i32*
%106 = load i32, i32* %105, align 4
store i32 %95, i32* %.pr.reg2mem
store i32 %106, i32* %sv_2.1.reg2mem
store i32 %sv_1.0.reload, i32* %sv_1.1.reg2mem
br label LBL_12
LBL_12:
%sv_1.1.reload = load i32, i32* %sv_1.1.reg2mem
%sv_2.1.reload = load i32, i32* %sv_2.1.reg2mem
%.pr.reload = load i32, i32* %.pr.reg2mem
%107 = sext i32 %sv_0.0.reload to i64
%108 = mul i64 %107, 4
%109 = add i64 %90, %108
%110 = inttoptr i64 %109 to i32*
%111 = load i32, i32* %110, align 4
%112 = sub i32 %111, %sv_4.1.reload
%113 = icmp sgt i32 %112, 2
store i32 %sv_0.0.reload, i32* %sv_0.1.reg2mem
br i1 %113, label LBL_14, label LBL_13
LBL_13:
%114 = load i32, i32* %.pre-phi8.reload, align 4
store i32 %114, i32* %sv_0.1.reg2mem
br label LBL_14
LBL_14:
%sv_0.1.reload = load i32, i32* %sv_0.1.reg2mem
%115 = load i64, i64* %7, align 8
%116 = add i64 %115, 4
%117 = inttoptr i64 %116 to i32*
%118 = load i32, i32* %117, align 4
%119 = load i64, i64* %31, align 8
%120 = add i64 %119, 4
%121 = inttoptr i64 %120 to i32*
%122 = load i32, i32* %121, align 4
%123 = add i32 %122, %118
%124 = icmp eq i32 %sv_4.1.reload, %123
%125 = icmp eq i1 %124, false
store i32 %.pr.reload, i32* %.reg2mem
store i32 %sv_4.1.reload, i32* %sv_4.0.reg2mem
store i32 %sv_2.1.reload, i32* %sv_2.0.reg2mem
store i32 %sv_1.1.reload, i32* %sv_1.0.reg2mem
store i32 %sv_0.1.reload, i32* %sv_0.0.reg2mem
store i64 %90, i64* %rsi.0.reg2mem
br i1 %125, label LBL_5, label LBL_15
LBL_15:
%126 = load i64, i64* %52, align 8
%127 = sext i32 %.pr.reload to i64
%128 = mul i64 %127, 4
%129 = add nsw i64 %128, -4
%130 = add i64 %129, %126
%131 = inttoptr i64 %130 to i32*
%132 = load i32, i32* %131, align 4
%133 = icmp sgt i32 %132, 2
%134 = icmp slt i32 %.pr.reload, 2
%or.cond = or i1 %134, %133
store i32 %.pr.reload, i32* %.reg2mem10
br i1 %or.cond, label LBL_17, label LBL_16
LBL_16:
%135 = add i32 %.pr.reload, -1
store i32 %135, i32* %25, align 4
store i32 %135, i32* %.reg2mem10
br label LBL_17
LBL_17:
%.reload11 = load i32, i32* %.reg2mem10
%136 = icmp slt i32 %.reload11, 7
store i64 0, i64* %storemerge.reg2mem
br i1 %136, label LBL_19, label LBL_18
LBL_18:
%137 = zext i32 %.reload11 to i64
%138 = call i64 @FUNC(i64 %17, i64 0, i8* getelementptr inbounds ([22 x i8], [22 x i8]* @gv_0, i64 0, i64 0), i64 %137)
store i64 4294967295, i64* %storemerge.reg2mem
br label LBL_19
LBL_19:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
ret i64 %storemerge.reload
uselistorder i32 %.pr.reload, { 2, 0, 1, 3, 4 }
uselistorder i32 %sv_4.1.reload, { 6, 5, 4, 0, 1, 3, 2 }
uselistorder i32 %.pre5, { 1, 0 }
uselistorder i32 %sv_0.0.reload, { 0, 3, 2, 1 }
uselistorder i32 %storemerge2.reload, { 0, 2, 1 }
uselistorder i32* %25, { 1, 0, 2, 3, 4 }
uselistorder i64* %2, { 1, 0, 2 }
uselistorder i64 %0, { 0, 3, 4, 2, 6, 1, 5, 7, 8, 9, 10 }
uselistorder i32* %storemerge2.reg2mem, { 2, 0, 1 }
uselistorder i32** %.pre-phi8.reg2mem, { 0, 2, 1 }
uselistorder i32* %sv_0.0.ph.reg2mem, { 0, 2, 1 }
uselistorder i32* %.reg2mem, { 2, 0, 1 }
uselistorder i32* %sv_4.0.reg2mem, { 2, 0, 1 }
uselistorder i32* %sv_2.0.reg2mem, { 2, 0, 1 }
uselistorder i32* %sv_1.0.reg2mem, { 2, 0, 1 }
uselistorder i32* %sv_0.0.reg2mem, { 2, 0, 1 }
uselistorder i64* %rsi.0.reg2mem, { 2, 0, 1 }
uselistorder i32* %.pr.reg2mem, { 0, 2, 1 }
uselistorder i32* %sv_2.1.reg2mem, { 0, 2, 1 }
uselistorder i32* %sv_1.1.reg2mem, { 0, 2, 1 }
uselistorder i32* %.reg2mem10, { 0, 2, 1 }
uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 }
uselistorder i32 -1, { 1, 0 }
uselistorder i32 2, { 1, 2, 3, 0 }
uselistorder i64 4, { 0, 7, 8, 1, 9, 2, 3, 4, 5, 6, 10, 11, 12 }
uselistorder label LBL_19, { 1, 0 }
uselistorder label LBL_17, { 1, 0 }
uselistorder label LBL_6, { 1, 0 }
uselistorder label LBL_5, { 1, 0 }
uselistorder label LBL_1, { 1, 0 }
}
|
1
|
CompRealVul
|
usbredir_post_load_17633
|
usbredir_post_load
|
define i64 @FUNC(i32* %arg1, i64 %arg2) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%.pre-phi.reg2mem = alloca i64
%.reg2mem = alloca i32
%1 = load i64, i64* %0
%2 = trunc i64 %1 to i32
%3 = icmp eq i32 %2, 3
br i1 %3, label LBL_6, label LBL_1
LBL_1:
%4 = icmp ult i32 %2, 4
br i1 %4, label LBL_2, label LBL_7
LBL_2:
switch i32 %2, label LBL_7 [
i32 2, label LBL_5
i32 0, label LBL_3
i32 1, label LBL_4
]
LBL_3:
%5 = ptrtoint i32* %arg1 to i64
%6 = add i64 %5, 4
%7 = inttoptr i64 %6 to i32*
store i32 0, i32* %7, align 4
store i32 0, i32* %.reg2mem
store i64 %5, i64* %.pre-phi.reg2mem
br label LBL_8
LBL_4:
%8 = ptrtoint i32* %arg1 to i64
%9 = add i64 %8, 4
%10 = inttoptr i64 %9 to i32*
store i32 1, i32* %10, align 4
store i32 1, i32* %.reg2mem
store i64 %8, i64* %.pre-phi.reg2mem
br label LBL_8
LBL_5:
%11 = ptrtoint i32* %arg1 to i64
%12 = add i64 %11, 4
%13 = inttoptr i64 %12 to i32*
store i32 2, i32* %13, align 4
store i32 2, i32* %.reg2mem
store i64 %11, i64* %.pre-phi.reg2mem
br label LBL_8
LBL_6:
%14 = ptrtoint i32* %arg1 to i64
%15 = add i64 %14, 4
%16 = inttoptr i64 %15 to i32*
store i32 3, i32* %16, align 4
store i32 3, i32* %.reg2mem
store i64 %14, i64* %.pre-phi.reg2mem
br label LBL_8
LBL_7:
%17 = ptrtoint i32* %arg1 to i64
%18 = add i64 %17, 4
%19 = inttoptr i64 %18 to i32*
store i32 1, i32* %19, align 4
store i32 1, i32* %.reg2mem
store i64 %17, i64* %.pre-phi.reg2mem
br label LBL_8
LBL_8:
%.pre-phi.reload = load i64, i64* %.pre-phi.reg2mem
%.reload = load i32, i32* %.reg2mem
%20 = shl i32 1, %.reload
%21 = add i64 %.pre-phi.reload, 8
%22 = inttoptr i64 %21 to i32*
store i32 %20, i32* %22, align 4
%23 = call i64 @FUNC(i64 %.pre-phi.reload)
%24 = call i64 @FUNC(i64 %.pre-phi.reload)
ret i64 0
uselistorder i64 %.pre-phi.reload, { 1, 0, 2 }
uselistorder i32 %2, { 2, 1, 0 }
uselistorder i32* %.reg2mem, { 0, 5, 4, 3, 2, 1 }
uselistorder i64* %.pre-phi.reg2mem, { 0, 5, 4, 3, 2, 1 }
uselistorder i32 0, { 0, 2, 1 }
uselistorder i32 2, { 0, 2, 1 }
uselistorder i32 3, { 0, 2, 1 }
uselistorder i32* %arg1, { 0, 4, 3, 1, 2 }
}
|
1
|
CompRealVul
|
atl2_read_phy_reg_10172
|
atl2_read_phy_reg
|
define i64 @FUNC(i64* %arg1, i64 %arg2, i64* %arg3) local_unnamed_addr {
LBL_0:
%storemerge.reg2mem = alloca i64
%storemerge12.reg2mem = alloca i32
%0 = ptrtoint i64* %arg1 to i64
%1 = trunc i64 %arg2 to i32
%2 = mul i32 %1, 2097152
%3 = and i32 %2, 65011712
%4 = or i32 %3, 2055
%5 = call i64 @FUNC(i64 %0, i64 0, i32 %4)
%6 = call i64 @FUNC()
store i32 0, i32* %storemerge12.reg2mem
br label LBL_1
LBL_1:
%7 = call i64 @FUNC(i64 2)
%8 = call i64 @FUNC(i64 %0, i64 0)
%9 = and i64 %8, 17
%10 = icmp eq i64 %9, 0
br i1 %10, label LBL_3, label LBL_2
LBL_2:
%storemerge12.reload = load i32, i32* %storemerge12.reg2mem
%11 = call i64 @FUNC()
%12 = add nuw nsw i32 %storemerge12.reload, 1
%13 = icmp ult i32 %12, 100
store i32 %12, i32* %storemerge12.reg2mem
store i64 4294967295, i64* %storemerge.reg2mem
br i1 %13, label LBL_1, label LBL_4
LBL_3:
%14 = trunc i64 %8 to i16
%15 = bitcast i64* %arg3 to i16*
store i16 %14, i16* %15, align 2
store i64 0, i64* %storemerge.reg2mem
br label LBL_4
LBL_4:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
ret i64 %storemerge.reload
uselistorder i32* %storemerge12.reg2mem, { 1, 0, 2 }
uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 }
uselistorder i64 ()* @wmb, { 1, 0 }
uselistorder label LBL_4, { 1, 0 }
uselistorder label LBL_1, { 1, 0 }
}
|
0
|
CompRealVul
|
start_cfs_slack_bandwidth_10360
|
start_cfs_slack_bandwidth
|
define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%0 = ptrtoint i64* %arg1 to i64
%1 = load i64, i64* @gv_0, align 8
%2 = load i64, i64* @gv_1, align 8
%3 = add i64 %2, %1
%4 = call i64 @FUNC(i64 %0, i64 %3)
%5 = trunc i64 %4 to i32
%6 = icmp eq i32 %5, 0
%7 = icmp eq i1 %6, false
store i64 %4, i64* %rax.0.reg2mem
br i1 %7, label LBL_2, label LBL_1
LBL_1:
%8 = load i64, i64* @gv_0, align 8
%9 = call i64 @FUNC(i64 %8)
%10 = call i64 @FUNC(i64 %0, i64 %9, i64 %3, i64 0)
store i64 %10, i64* %rax.0.reg2mem
br label LBL_2
LBL_2:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder label LBL_2, { 1, 0 }
}
|
0
|
CompRealVul
|
tls_read_1443
|
tls_read
|
define i64 @FUNC(i64* %arg1, i64* %arg2, i64 %arg3) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%sv_0.0.in.reg2mem = alloca i64
%0 = ptrtoint i64* %arg1 to i64
%sv_1 = alloca i64, align 8
%sv_2 = alloca i64, align 8
%sext = mul i64 %arg3, 4294967296
store i64 0, i64* %sv_2, align 8
store i64 0, i64* %sv_1, align 8
%1 = call i64 @FUNC(i64 %0, i64* nonnull %sv_2)
%2 = load i64, i64* %sv_2, align 8
%3 = icmp eq i64 %2, 0
store i64 %sext, i64* %sv_0.0.in.reg2mem
br i1 %3, label LBL_2, label LBL_1
LBL_1:
%4 = ashr exact i64 %sext, 32
%5 = icmp ugt i64 %4, %2
%6 = select i1 %5, i64 %2, i64 %4
%sext3 = mul i64 %6, 4294967296
store i64 %sext3, i64* %sv_0.0.in.reg2mem
br label LBL_2
LBL_2:
%7 = ptrtoint i64* %arg2 to i64
%sv_0.0.in.reload = load i64, i64* %sv_0.0.in.reg2mem
%8 = udiv i64 %sv_0.0.in.reload, 4294967296
%9 = trunc i64 %8 to i32
%10 = call i64 @FUNC(i64 %0, i64 %7, i32 %9, i64* nonnull %sv_1)
%11 = load i64, i64* %sv_1, align 8
%12 = and i64 %10, 4294967295
%13 = call i64 @FUNC(i64 %12, i64 %11)
%14 = trunc i64 %13 to i32
%15 = icmp slt i32 %14, 1
br i1 %15, label LBL_4, label LBL_3
LBL_3:
%16 = and i64 %13, 4294967295
store i64 %16, i64* %rax.0.reg2mem
br label LBL_6
LBL_4:
%17 = icmp eq i32 %14, 0
%18 = icmp eq i1 %17, false
store i64 4294967295, i64* %rax.0.reg2mem
br i1 %18, label LBL_5, label LBL_6
LBL_5:
%19 = and i64 %13, 4294967295
%20 = call i64 @FUNC(i64 %0, i64 %19)
store i64 %20, i64* %rax.0.reg2mem
br label LBL_6
LBL_6:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %2, { 1, 0, 2 }
uselistorder i64 %sext, { 1, 0 }
uselistorder i64* %sv_2, { 1, 0, 2 }
uselistorder i64* %sv_1, { 1, 0, 2 }
uselistorder i64* %rax.0.reg2mem, { 0, 3, 1, 2 }
uselistorder i64 4294967296, { 2, 0, 1 }
uselistorder label LBL_6, { 1, 0, 2 }
}
|
0
|
CompRealVul
|
nbd_client_session_close_16303
|
nbd_client_session_close
|
define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%0 = ptrtoint i64* %arg1 to i64
%1 = icmp eq i64* %arg1, null
br i1 %1, label LBL_2, label LBL_1
LBL_1:
%2 = call i64 @FUNC(i64 %0)
store i64 0, i64* %arg1, align 8
br label LBL_2
LBL_2:
ret i64 %0
uselistorder label LBL_2, { 1, 0 }
}
|
1
|
CompRealVul
|
mirror_complete_14288
|
mirror_complete
|
define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%0 = ptrtoint i64* %arg2 to i64
%1 = ptrtoint i64* %arg1 to i64
%sv_0 = alloca i64, align 8
%2 = add i64 %1, 16
%3 = inttoptr i64 %2 to i64*
%4 = load i64, i64* %3, align 8
%5 = call i64 @FUNC(i64 %4)
%6 = trunc i64 %5 to i32
%7 = icmp slt i32 %6, 0
%8 = icmp eq i1 %7, false
br i1 %8, label LBL_2, label LBL_1
LBL_1:
%9 = load i64, i64* %3, align 8
%10 = call i64 @FUNC(i64 %9, i64* nonnull %sv_0, i64 4096)
%11 = call i64 @FUNC(i64 %0, i64 1, i64* nonnull %sv_0)
store i64 %11, i64* %rax.0.reg2mem
br label LBL_5
LBL_2:
%12 = add i64 %1, 8
%13 = inttoptr i64 %12 to i32*
%14 = load i32, i32* %13, align 4
%15 = icmp eq i32 %14, 0
%16 = icmp eq i1 %15, false
br i1 %16, label LBL_4, label LBL_3
LBL_3:
%17 = inttoptr i64 %4 to i64*
%18 = call i64 @FUNC(i64 %0, i64 2, i64* %17)
store i64 %18, i64* %rax.0.reg2mem
br label LBL_5
LBL_4:
%19 = add i64 %1, 12
%20 = inttoptr i64 %19 to i32*
store i32 1, i32* %20, align 4
%21 = call i64 @FUNC(i64 %1)
store i64 %21, i64* %rax.0.reg2mem
br label LBL_5
LBL_5:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %1, { 0, 2, 1, 3 }
uselistorder i64 %0, { 1, 0 }
uselistorder i64* %rax.0.reg2mem, { 0, 3, 2, 1 }
uselistorder i64 (i64, i64, i64*)* @error_set, { 1, 0 }
}
|
1
|
CompRealVul
|
s390_virtio_hypercall_14081
|
s390_virtio_hypercall
|
define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%0 = ptrtoint i64* %arg1 to i64
%1 = add i64 %0, 4
%2 = inttoptr i64 %1 to i32*
%3 = load i32, i32* %2, align 4
%4 = sext i32 %3 to i64
%5 = mul i64 %4, 8
%6 = add i64 %5, ptrtoint (i64* @gv_0 to i64)
%7 = inttoptr i64 %6 to i64*
%8 = load i64, i64* %7, align 8
%9 = icmp eq i64 %8, 0
%10 = icmp eq i1 %9, false
%storemerge = select i1 %10, i64 %8, i64 4294967274
ret i64 %storemerge
}
|
1
|
CompRealVul
|
spapr_vty_init_2428
|
spapr_vty_init
|
define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%0 = icmp eq i64* %arg1, null
%1 = icmp eq i1 %0, false
br i1 %1, label LBL_2, label LBL_1
LBL_1:
%2 = load %_IO_FILE*, %_IO_FILE** @gv_0, align 8
%3 = call i32 @fwrite(i64* bitcast ([48 x i8]* @gv_1 to i64*), i32 1, i32 47, %_IO_FILE* %2)
call void @exit(i32 1)
unreachable
LBL_2:
%4 = ptrtoint i64* %arg1 to i64
%5 = call i64 @FUNC(i64 %4, i64 4198737, i64 4198744, i64 0, i64 %4)
ret i64 0
uselistorder i64 %4, { 1, 0 }
uselistorder i64* %arg1, { 1, 0 }
}
|
0
|
CompRealVul
|
jpc_pi_destroy_9601
|
jpc_pi_destroy
|
define i64 @FUNC(i64 %arg1) local_unnamed_addr {
LBL_0:
%sv_0.01.reg2mem = alloca i32
%0 = icmp eq i64 %arg1, 0
br i1 %0, label LBL_4, label LBL_1
LBL_1:
%1 = add i64 %arg1, 16
%2 = inttoptr i64 %1 to i32*
%3 = load i32, i32* %2, align 4
%4 = icmp eq i32 %3, 0
store i32 0, i32* %sv_0.01.reg2mem
br i1 %4, label LBL_3, label LBL_2
LBL_2:
%sv_0.01.reload = load i32, i32* %sv_0.01.reg2mem
%5 = call i64 @FUNC(i64 %arg1)
%6 = add i32 %sv_0.01.reload, 1
%7 = load i32, i32* %2, align 4
%8 = zext i32 %7 to i64
%9 = sext i32 %6 to i64
%10 = icmp slt i64 %9, %8
store i32 %6, i32* %sv_0.01.reg2mem
br i1 %10, label LBL_2, label LBL_3
LBL_3:
%11 = call i64 @FUNC(i64 %arg1)
br label LBL_4
LBL_4:
%12 = add i64 %arg1, 8
%13 = inttoptr i64 %12 to i64*
%14 = load i64, i64* %13, align 8
%15 = icmp eq i64 %14, 0
br i1 %15, label LBL_6, label LBL_5
LBL_5:
%16 = call i64 @FUNC(i64 %14)
br label LBL_6
LBL_6:
%17 = call i64 @FUNC(i64 %arg1)
ret i64 %17
uselistorder i32* %2, { 1, 0 }
uselistorder i32* %sv_0.01.reg2mem, { 2, 0, 1 }
uselistorder i64 (i64)* @jas_free, { 1, 0 }
uselistorder i32 1, { 3, 2, 1, 0 }
uselistorder i64 %arg1, { 3, 4, 0, 1, 2, 5 }
uselistorder label LBL_2, { 1, 0 }
}
|
0
|
CompRealVul
|
showLatencyDistLegend_8796
|
showLatencyDistLegend
|
define i64 @FUNC() local_unnamed_addr {
LBL_0:
%storemerge1.reg2mem = alloca i32
%0 = call i32 @puts(i8* getelementptr inbounds ([46 x i8], [46 x i8]* @gv_0, i64 0, i64 0))
%1 = call i32 @puts(i8* getelementptr inbounds ([46 x i8], [46 x i8]* @gv_1, i64 0, i64 0))
%2 = call i32 @puts(i8* getelementptr inbounds ([46 x i8], [46 x i8]* @gv_2, i64 0, i64 0))
%3 = call i32 @puts(i8* getelementptr inbounds ([46 x i8], [46 x i8]* @gv_3, i64 0, i64 0))
%4 = call i32 @puts(i8* getelementptr inbounds ([46 x i8], [46 x i8]* @gv_4, i64 0, i64 0))
%5 = call i32 @puts(i8* getelementptr inbounds ([46 x i8], [46 x i8]* @gv_5, i64 0, i64 0))
%6 = call i32 (i8*, ...) @printf(i8* getelementptr inbounds ([18 x i8], [18 x i8]* @gv_6, i64 0, i64 0))
store i32 0, i32* %storemerge1.reg2mem
br label LBL_1
LBL_1:
%storemerge1.reload = load i32, i32* %storemerge1.reg2mem
%7 = call i32 (i8*, ...) @printf(i8* bitcast (i8** @gv_7 to i8*))
%8 = add nuw nsw i32 %storemerge1.reload, 1
%exitcond = icmp eq i32 %8, 10
store i32 %8, i32* %storemerge1.reg2mem
br i1 %exitcond, label LBL_2, label LBL_1
LBL_2:
%9 = call i32 @puts(i8* inttoptr (i64 4202828 to i8*))
%10 = call i32 @puts(i8* getelementptr inbounds ([46 x i8], [46 x i8]* @gv_0, i64 0, i64 0))
%11 = sext i32 %10 to i64
ret i64 %11
uselistorder i32* %storemerge1.reg2mem, { 1, 0, 2 }
uselistorder i32 (i8*, ...)* @printf, { 1, 0 }
uselistorder i32 (i8*)* @puts, { 7, 6, 5, 4, 3, 2, 1, 0 }
uselistorder i32 1, { 1, 0 }
}
|
0
|
CompRealVul
|
qemu_system_vmstop_request_1593
|
qemu_system_vmstop_request
|
define i64 @FUNC(i64 %arg1) local_unnamed_addr {
LBL_0:
%0 = trunc i64 %arg1 to i32
store i32 %0, i32* bitcast (i64* @gv_0 to i32*), align 8
%1 = call i64 @FUNC(i64 4210724)
%2 = call i64 @FUNC()
ret i64 %2
}
|
0
|
CompRealVul
|
dalvik_assemble_10311
|
dalvik_assemble
|
define i64 @FUNC(i32* %arg1, i64* %arg2, i64 %arg3) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%storemerge.reg2mem = alloca i64
%indvars.iv.reg2mem = alloca i64
%1 = load i64, i64* %0
%2 = inttoptr i64 %arg3 to i8*
%3 = call i8* @strchr(i8* %2, i32 32)
%4 = icmp eq i8* %3, null
br i1 %4, label LBL_2, label LBL_1
LBL_1:
store i8 0, i8* %3, align 1
br label LBL_2
LBL_2:
%5 = ptrtoint i64* %arg2 to i64
%6 = trunc i64 %1 to i32
store i64 0, i64* %indvars.iv.reg2mem
br label LBL_3
LBL_3:
%indvars.iv.reload = load i64, i64* %indvars.iv.reg2mem
%7 = mul i64 %indvars.iv.reload, 16
%8 = add i64 %7, ptrtoint (i64* @gv_0 to i64)
%9 = inttoptr i64 %8 to i64*
%10 = load i64, i64* %9, align 8
%11 = inttoptr i64 %10 to i8*
%12 = call i32 @strcmp(i8* %11, i8* %2)
%13 = icmp eq i32 %12, 0
%14 = icmp eq i1 %13, false
br i1 %14, label LBL_5, label LBL_4
LBL_4:
%15 = and i64 %indvars.iv.reload, 4294967295
%16 = call i64 @FUNC(i64 %5, i64 %15, i32 %6)
%17 = add i64 %7, ptrtoint (i32** @gv_1 to i64)
%18 = inttoptr i64 %17 to i32*
%19 = load i32, i32* %18, align 8
%20 = add i64 %5, 256
%21 = inttoptr i64 %20 to i32*
store i32 %19, i32* %21, align 4
%22 = zext i32 %19 to i64
store i64 %22, i64* %storemerge.reg2mem
br label LBL_6
LBL_5:
%indvars.iv.next = add nuw nsw i64 %indvars.iv.reload, 1
%23 = icmp ult i64 %indvars.iv.next, 256
store i64 %indvars.iv.next, i64* %indvars.iv.reg2mem
store i64 0, i64* %storemerge.reg2mem
br i1 %23, label LBL_3, label LBL_6
LBL_6:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
ret i64 %storemerge.reload
uselistorder i64 %7, { 1, 0 }
uselistorder i64* %indvars.iv.reg2mem, { 1, 0, 2 }
uselistorder i8 0, { 1, 0 }
uselistorder label LBL_3, { 1, 0 }
}
|
0
|
CompRealVul
|
unreference_pic_5179
|
unreference_pic
|
define i64 @FUNC(i64* %arg1, i32* %arg2, i64 %arg3) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%storemerge.reg2mem = alloca i64
%storemerge23.reg2mem = alloca i32
%.reg2mem = alloca i64
%1 = load i64, i64* %0
%2 = trunc i64 %1 to i32
%3 = and i64 %1, %arg3
%4 = trunc i64 %3 to i32
store i32 %4, i32* %arg2, align 4
%5 = icmp eq i32 %2, 0
store i64 0, i64* %storemerge.reg2mem
br i1 %5, label LBL_1, label LBL_6
LBL_1:
%6 = load i64, i64* %arg1, align 8
%7 = icmp eq i64 %6, 0
%8 = icmp eq i1 %7, false
store i64 1, i64* %storemerge.reg2mem
br i1 %8, label LBL_2, label LBL_6
LBL_2:
%9 = ptrtoint i64* %arg1 to i64
%10 = ptrtoint i32* %arg2 to i64
store i64 %6, i64* %.reg2mem
store i32 0, i32* %storemerge23.reg2mem
br label LBL_3
LBL_3:
%.reload = load i64, i64* %.reg2mem
%11 = icmp eq i64 %.reload, %10
%12 = icmp eq i1 %11, false
br i1 %12, label LBL_5, label LBL_4
LBL_4:
store i32 1, i32* %arg2, align 4
store i64 1, i64* %storemerge.reg2mem
br label LBL_6
LBL_5:
%storemerge23.reload = load i32, i32* %storemerge23.reg2mem
%13 = add i32 %storemerge23.reload, 1
%14 = sext i32 %13 to i64
%15 = mul i64 %14, 8
%16 = add i64 %15, %9
%17 = inttoptr i64 %16 to i64*
%18 = load i64, i64* %17, align 8
%19 = icmp eq i64 %18, 0
%20 = icmp eq i1 %19, false
store i64 %18, i64* %.reg2mem
store i32 %13, i32* %storemerge23.reg2mem
store i64 1, i64* %storemerge.reg2mem
br i1 %20, label LBL_3, label LBL_6
LBL_6:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
ret i64 %storemerge.reload
uselistorder i64 %1, { 1, 0 }
uselistorder i64* %.reg2mem, { 1, 0, 2 }
uselistorder i32* %storemerge23.reg2mem, { 1, 0, 2 }
uselistorder i64* %storemerge.reg2mem, { 0, 1, 3, 2, 4 }
uselistorder i1 false, { 2, 1, 0 }
uselistorder i32* %arg2, { 1, 0, 2 }
uselistorder i64* %arg1, { 1, 0 }
uselistorder label LBL_6, { 0, 2, 1, 3 }
uselistorder label LBL_3, { 1, 0 }
}
|
0
|
CompRealVul
|
esp_mem_readb_13876
|
esp_mem_readb
|
define i64 @FUNC(i64* %arg1, i64 %arg2) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%1 = load i64, i64* %0
%2 = load i64, i64* %0
%3 = ptrtoint i64* %arg1 to i64
%4 = add i64 %3, 2060
%5 = inttoptr i64 %4 to i32*
%6 = load i32, i32* %5, align 4
%7 = zext i32 %6 to i64
%8 = urem i32 %6, 32
%9 = icmp eq i32 %8, 0
%10 = trunc i64 %arg2 to i32
%11 = lshr i32 %10, %8
%12 = zext i32 %11 to i64
%rdx.0 = select i1 %9, i64 %arg2, i64 %12
%13 = trunc i64 %rdx.0 to i32
%14 = urem i32 %13, 256
%15 = mul i32 %14, 4
%16 = zext i32 %15 to i64
%17 = add i64 %16, %3
%18 = inttoptr i64 %17 to i32*
%19 = load i32, i32* %18, align 4
%20 = zext i32 %14 to i64
%21 = call i64 @FUNC(i8* getelementptr inbounds ([23 x i8], [23 x i8]* @gv_0, i64 0, i64 0), i64 %20, i32 %19, i64 %7, i64 %2, i64 %1)
%trunc = trunc i64 %rdx.0 to i8
switch i8 %trunc, label LBL_8 [
i8 0, label LBL_1
i8 1, label LBL_7
]
LBL_1:
%22 = add i64 %3, 1024
%23 = inttoptr i64 %22 to i32*
%24 = load i32, i32* %23, align 4
%25 = icmp eq i32 %24, 0
br i1 %25, label LBL_6, label LBL_2
LBL_2:
%26 = add i32 %24, -1
store i32 %26, i32* %23, align 4
%27 = add i64 %3, 8
%28 = inttoptr i64 %27 to i32*
%29 = load i32, i32* %28, align 4
%30 = urem i32 %29, 2
%31 = icmp eq i32 %30, 0
%32 = icmp eq i1 %31, false
br i1 %32, label LBL_4, label LBL_3
LBL_3:
%33 = load %_IO_FILE*, %_IO_FILE** @gv_1, align 8
%34 = call i32 @fwrite(i64* bitcast ([36 x i8]* @gv_2 to i64*), i32 1, i32 35, %_IO_FILE* %33)
%35 = bitcast i64* %arg1 to i32*
store i32 0, i32* %35, align 4
br label LBL_5
LBL_4:
%36 = add i64 %3, 1028
%37 = inttoptr i64 %36 to i32*
%38 = load i32, i32* %37, align 4
%39 = add i32 %38, 1
store i32 %39, i32* %37, align 4
%40 = zext i32 %38 to i64
%41 = mul i64 %40, 4
%42 = add i64 %3, 1036
%43 = add i64 %42, %41
%44 = inttoptr i64 %43 to i32*
%45 = load i32, i32* %44, align 4
%46 = bitcast i64* %arg1 to i32*
store i32 %45, i32* %46, align 4
br label LBL_5
LBL_5:
%47 = call i64 @FUNC(i64 %3)
%.pre = load i32, i32* %23, align 4
%phitmp = icmp eq i32 %.pre, 0
%phitmp1 = icmp eq i1 %phitmp, false
br i1 %phitmp1, label LBL_8, label LBL_6
LBL_6:
%48 = add i64 %3, 1028
%49 = inttoptr i64 %48 to i32*
store i32 0, i32* %49, align 4
%50 = add i64 %3, 1032
%51 = inttoptr i64 %50 to i32*
store i32 0, i32* %51, align 4
br label LBL_8
LBL_7:
%52 = add i64 %3, 8
%53 = inttoptr i64 %52 to i32*
%54 = load i32, i32* %53, align 4
%55 = and i32 %54, -7
store i32 %55, i32* %53, align 4
%56 = call i64 @FUNC(i64 %3)
br label LBL_8
LBL_8:
%57 = load i32, i32* %18, align 4
%58 = zext i32 %57 to i64
ret i64 %58
uselistorder i32 %14, { 1, 0 }
uselistorder i32 %8, { 1, 0 }
uselistorder i64 %3, { 2, 3, 7, 8, 4, 1, 6, 5, 9, 0, 10 }
uselistorder i64* %0, { 1, 0 }
uselistorder i8 0, { 0, 2, 1 }
uselistorder i32 0, { 1, 2, 0, 3, 4, 5, 6 }
uselistorder label LBL_8, { 3, 2, 1, 0 }
uselistorder label LBL_6, { 1, 0 }
uselistorder label LBL_5, { 1, 0 }
}
|
1
|
CompRealVul
|
pnv_chip_power9_class_init_17007
|
pnv_chip_power9_class_init
|
define i64 @FUNC(i64* %arg1, i64 %arg2) local_unnamed_addr {
LBL_0:
%0 = ptrtoint i64* %arg1 to i64
%1 = add i64 %0, 8
%2 = inttoptr i64 %1 to i32*
store i32 1, i32* %2, align 4
%3 = add i64 %0, 16
%4 = inttoptr i64 %3 to i64*
store i64 1156598587170226176, i64* %4, align 8
%5 = add i64 %0, 24
%6 = inttoptr i64 %5 to i32*
store i32 -1, i32* %6, align 4
%7 = add i64 %0, 32
%8 = inttoptr i64 %7 to i64*
store i64 4198694, i64* %8, align 8
store i64 ptrtoint ([20 x i8]* @gv_0 to i64), i64* %arg1, align 8
ret i64 %0
}
|
1
|
CompRealVul
|
get_schema_version_10819
|
get_schema_version
|
define i64 @FUNC(i64 %arg1) local_unnamed_addr {
LBL_0:
%storemerge.reg2mem = alloca i64
%indvars.iv.reg2mem = alloca i64
%0 = icmp eq i64 %arg1, 0
%1 = icmp eq i1 %0, false
%2 = select i1 %1, i64 %arg1, i64 ptrtoint ([5 x i8]* @gv_0 to i64)
store i64 0, i64* %indvars.iv.reg2mem
br label LBL_1
LBL_1:
%indvars.iv.reload = load i64, i64* %indvars.iv.reg2mem
%3 = mul i64 %indvars.iv.reload, 8
%4 = add i64 %3, ptrtoint ([10 x i8*]* @gv_1 to i64)
%5 = inttoptr i64 %4 to i64*
%6 = load i64, i64* %5, align 8
%7 = call i64 @FUNC(i64 %2, i64 %6)
%8 = trunc i64 %7 to i32
%9 = icmp eq i32 %8, 0
br i1 %9, label LBL_3, label LBL_2
LBL_2:
%10 = and i64 %indvars.iv.reload, 4294967295
store i64 %10, i64* %storemerge.reg2mem
br label LBL_4
LBL_3:
%indvars.iv.next = add nuw nsw i64 %indvars.iv.reload, 1
%11 = icmp ult i64 %indvars.iv.next, 10
store i64 %indvars.iv.next, i64* %indvars.iv.reg2mem
store i64 4294967295, i64* %storemerge.reg2mem
br i1 %11, label LBL_1, label LBL_4
LBL_4:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
ret i64 %storemerge.reload
uselistorder i64* %indvars.iv.reg2mem, { 1, 0, 2 }
uselistorder i32 0, { 20, 21, 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19 }
uselistorder i32 1, { 1, 0 }
uselistorder label LBL_1, { 1, 0 }
}
|
0
|
CompRealVul_LLVM Dataset
Dataset Summary
CompRealVul_LLVM is the LLVM IR (Intermediate Representation) version of the CompRealVul_C dataset. This version is designed specifically for training and evaluating machine learning models on the task of binary vulnerability detection in a setting that closely mimics how models are used in practice — operating on the compiled representation of code rather than raw source code.
Each function in this dataset was compiled from C code to LLVM IR, enabling robust training of models on semantically rich, architecture-independent binary representations.
This dataset supports research aligned with the methodology described in our paper, where the goal is to predict vulnerabilities directly from compiled IR representations rather than from source code.
Key Features
- ✅ LLVM IR representation of each function (field:
llvm_ir_function) - ✅ Includes train, validation, and test splits (see below)
- ✅ Vulnerability labels (
label) for supervised learning - ✅ Metadata about original source (
dataset,file,fun_name)
Dataset Structure
Each record contains:
dataset: Original dataset source of the function (e.g., Juliet, NVD)file: File path of the source from which the function was extractedfun_name: Name of the function in the source codellvm_ir_function: LLVM IR string representing the functionlabel: Binary label indicating vulnerability (1for vulnerable,0for non-vulnerable)split: Dataset split (train,validation,test)
Split Information
This dataset is split into train, validation, and test sets, following the exact partitioning strategy used in the experiments described in our paper. The split ensures a fair evaluation of generalization performance by separating functions into disjoint sets with no overlap. This allows researchers to directly reproduce our results or compare against them under consistent conditions.
train: Used to fit model parametersvalidation: Used for model selection and hyperparameter tuningtest: Used exclusively for final evaluation and benchmarking
Usage
You can load and explore the dataset using the 🤗 datasets library:
from datasets import load_dataset
# Load a specific split
train_ds = load_dataset("compAgent/CompRealVul_LLVM", split="train")
print(train_ds[0])
## Example
```json
{
"dataset": "CompRealVul",
"file": "app_122.c",
"fun_name": "app",
"llvm_ir_function": "define dso_local i32 @app() #0 { ... }",
"label": "1",
"split": "train"
}
License
This dataset is released under the GPL-3.0.
Citation
@misc{comprealvul_llvm,
author = {Compote},
title = {CompRealVul_LLVM: A Dataset of Vulnerable and Non-Vulnerable Functions in LLVM IR},
howpublished = {\url{https://huggingface.co/datasets/compAgent/CompRealVul_LLVM}},
year = {2025}
}
- Downloads last month
- 76