]> git.kernelconcepts.de Git - karo-tx-linux.git/blob - include/crypto/cryptd.h
Merge branch 'smp-urgent-for-linus' of git://git.kernel.org/pub/scm/linux/kernel...
[karo-tx-linux.git] / include / crypto / cryptd.h
1 /*
2  * Software async crypto daemon
3  *
4  * Added AEAD support to cryptd.
5  *    Authors: Tadeusz Struk (tadeusz.struk@intel.com)
6  *             Adrian Hoban <adrian.hoban@intel.com>
7  *             Gabriele Paoloni <gabriele.paoloni@intel.com>
8  *             Aidan O'Mahony (aidan.o.mahony@intel.com)
9  *    Copyright (c) 2010, Intel Corporation.
10  */
11
12 #ifndef _CRYPTO_CRYPT_H
13 #define _CRYPTO_CRYPT_H
14
15 #include <linux/kernel.h>
16 #include <crypto/aead.h>
17 #include <crypto/hash.h>
18 #include <crypto/skcipher.h>
19
20 struct cryptd_ablkcipher {
21         struct crypto_ablkcipher base;
22 };
23
24 static inline struct cryptd_ablkcipher *__cryptd_ablkcipher_cast(
25         struct crypto_ablkcipher *tfm)
26 {
27         return (struct cryptd_ablkcipher *)tfm;
28 }
29
30 /* alg_name should be algorithm to be cryptd-ed */
31 struct cryptd_ablkcipher *cryptd_alloc_ablkcipher(const char *alg_name,
32                                                   u32 type, u32 mask);
33 struct crypto_blkcipher *cryptd_ablkcipher_child(struct cryptd_ablkcipher *tfm);
34 bool cryptd_ablkcipher_queued(struct cryptd_ablkcipher *tfm);
35 void cryptd_free_ablkcipher(struct cryptd_ablkcipher *tfm);
36
37 struct cryptd_skcipher {
38         struct crypto_skcipher base;
39 };
40
41 struct cryptd_skcipher *cryptd_alloc_skcipher(const char *alg_name,
42                                               u32 type, u32 mask);
43 struct crypto_skcipher *cryptd_skcipher_child(struct cryptd_skcipher *tfm);
44 /* Must be called without moving CPUs. */
45 bool cryptd_skcipher_queued(struct cryptd_skcipher *tfm);
46 void cryptd_free_skcipher(struct cryptd_skcipher *tfm);
47
48 struct cryptd_ahash {
49         struct crypto_ahash base;
50 };
51
52 static inline struct cryptd_ahash *__cryptd_ahash_cast(
53         struct crypto_ahash *tfm)
54 {
55         return (struct cryptd_ahash *)tfm;
56 }
57
58 /* alg_name should be algorithm to be cryptd-ed */
59 struct cryptd_ahash *cryptd_alloc_ahash(const char *alg_name,
60                                         u32 type, u32 mask);
61 struct crypto_shash *cryptd_ahash_child(struct cryptd_ahash *tfm);
62 struct shash_desc *cryptd_shash_desc(struct ahash_request *req);
63 /* Must be called without moving CPUs. */
64 bool cryptd_ahash_queued(struct cryptd_ahash *tfm);
65 void cryptd_free_ahash(struct cryptd_ahash *tfm);
66
67 struct cryptd_aead {
68         struct crypto_aead base;
69 };
70
71 static inline struct cryptd_aead *__cryptd_aead_cast(
72         struct crypto_aead *tfm)
73 {
74         return (struct cryptd_aead *)tfm;
75 }
76
77 struct cryptd_aead *cryptd_alloc_aead(const char *alg_name,
78                                           u32 type, u32 mask);
79
80 struct crypto_aead *cryptd_aead_child(struct cryptd_aead *tfm);
81 /* Must be called without moving CPUs. */
82 bool cryptd_aead_queued(struct cryptd_aead *tfm);
83
84 void cryptd_free_aead(struct cryptd_aead *tfm);
85
86 #endif