Which cryptographic algorithm is asymmetric?
A
DES
B
AES
C
Triple DES
D
RSA
উত্তরের বিবরণ
ক্রিপ্টোগ্রাফিক অ্যালগরিদম মূলত দুটি ভাগে বিভক্ত — Symmetric Key Cryptography এবং Asymmetric Key Cryptography।
-
Symmetric Key Cryptography:
এখানে একই কী ব্যবহার করা হয় encryption ও decryption–এর জন্য। প্রেরক ও গ্রাহক উভয়েই একই গোপন কী ভাগাভাগি করে নেয়।
উদাহরণ:-
DES (Data Encryption Standard)
-
AES (Advanced Encryption Standard)
-
Triple DES (3DES)
-
-
Asymmetric Key Cryptography:
এখানে দুটি কী ব্যবহার হয় —-
Public Key (Encryption-এর জন্য)
-
Private Key (Decryption-এর জন্য)
কেউ যদি পাবলিক কী জানে, তবুও প্রাইভেট কী ছাড়া তথ্য ডিক্রিপ্ট করতে পারে না।
উদাহরণ: -
RSA (Rivest–Shamir–Adleman) Algorithm
-
উ. ঘ) RSA
ব্যাখ্যা: RSA একটি Asymmetric Key Cryptography–এর অ্যালগরিদম, যেখানে আলাদা পাবলিক ও প্রাইভেট কী ব্যবহৃত হয়। এটি ডিজিটাল স্বাক্ষর ও নিরাপদ তথ্য বিনিময়ে বহুল ব্যবহৃত।

0
Updated: 13 hours ago
In the breadth-first search, which of the following should be used?
Created: 1 day ago
A
Stack
B
Queue
C
Heap
D
Heap
Breadth-First Search (BFS) হলো এমন একটি graph traversal algorithm, যা গ্রাফের নোডগুলোকে স্তরভিত্তিকভাবে (level by level) অনুসন্ধান করে। এটি একটি সূত্র নোড (source node) থেকে শুরু করে, প্রথমে তার সব প্রতিবেশী নোড ভিজিট করে, তারপর পরবর্তী স্তরের নোডগুলিতে যায়। এই প্রক্রিয়া বাস্তবায়নে ব্যবহৃত হয় Queue (FIFO – First In, First Out) ডেটা স্ট্রাকচার।
মূল ধাপগুলো হলো:
-
সূত্র নোডটি enqueue করা হয়।
-
একটি নোড dequeue করে সেটি ভিজিট করা হয় এবং তার অভিযুক্ত না হওয়া (unvisited) প্রতিবেশীদের enqueue করা হয়।
-
এই ধাপগুলো queue খালি হওয়া পর্যন্ত পুনরাবৃত্তি হয়।
উদাহরণ:
যদি গ্রাফটি হয় —
A → B, C
B → D
C → E
তাহলে BFS traversal order: A, B, C, D, E
(যেখানে কিউ ব্যবহৃত হয়েছে)।
অতএব, BFS-এ Queue ব্যবহৃত হয় নোডগুলোকে তাদের আবিষ্কারের ক্রম অনুযায়ী পরিচালনার জন্য।

0
Updated: 1 day ago
____________algorithm requires policy.
Created: 1 day ago
A
Supervised learning
B
Fuzzy logic
C
Deep learning
D
Reinforcement learning
Reinforcement Learning (RL) হলো এক ধরনের মেশিন লার্নিং পদ্ধতি, যেখানে একটি এজেন্ট (agent) নির্দিষ্ট লক্ষ্য অর্জনের জন্য পরিবেশের (environment) সঙ্গে পর্যায়ক্রমিকভাবে মিথস্ক্রিয়া করে সিদ্ধান্ত গ্রহণের কৌশল শেখে।
-
মূল ধারণা: এজেন্ট তার প্রতিটি কর্মকাণ্ডের পর পরিবেশ থেকে পুরস্কার (reward) বা দণ্ড (penalty) পায়, এবং এই অভিজ্ঞতা থেকে শেখে কোন কাজগুলো কাঙ্ক্ষিত ফলাফল দেয়।
-
নীতিমালা (Policy): এজেন্ট একটি policy অনুসরণ করে, যা নির্দেশ করে নির্দিষ্ট অবস্থায় (state) কোন কাজ (action) করতে হবে।
-
শিক্ষণ প্রক্রিয়া: ট্রায়াল ও এরর (trial and error) পদ্ধতির মাধ্যমে এজেন্ট সময়ের সঙ্গে সঙ্গে তার কৌশল উন্নত করে, যাতে সর্বোচ্চ পুরস্কার অর্জন করা যায়।
-
উদাহরণ: রোবটকে হাঁটতে শেখানো, স্বয়ংচালিত গাড়ির সিদ্ধান্ত নেওয়া, বা গেম খেলার অ্যালগরিদমে RL ব্যবহৃত হয়।
-
উপাদান: RL-এর প্রধান উপাদান হলো agent, environment, policy, reward function, ও value function।

0
Updated: 1 day ago
If |A| = m, |B| = n, then the number of injective functions A → B (m ≤ n) is:
Created: 1 day ago
A
P(n,m)
B
C(n,m)
C
nm
D
m
যদি |A| = m এবং |B| = n (m ≤ n) হয়, তবে A → B এর একেকটি injective (one-to-one) ফাংশনের সংখ্যা হবে P(n, m) = n! / (n − m)!। এই সূত্রটি permutation ধারণার উপর ভিত্তি করে তৈরি।
মূল ব্যাখ্যা হলো:
-
A-এর প্রথম উপাদান B-এর n উপাদানের যেকোনো একটির সাথে যুক্ত হতে পারে।
-
দ্বিতীয় উপাদানের জন্য থাকে **(n − 1)**টি বিকল্প, কারণ একই উপাদান আবার ব্যবহার করা যাবে না (injective হওয়ার কারণে)।
-
এভাবে ক্রমান্বয়ে mটি উপাদানের জন্য বিকল্পের সংখ্যা কমতে থাকে।
-
ফলে মোট ফাংশনের সংখ্যা হয়:
n × (n − 1) × (n − 2) × … × (n − m + 1) = n! / (n − m)!
অতএব, injective mapping-এর সংখ্যা = P(n, m)।

0
Updated: 1 day ago