DeepSeek ਸਮੇਤ ਇਨ੍ਹਾਂ 3 ਚੀਨੀ ਕੰਪਨੀਆਂ 'ਤੇ ਲੱਗੇ ਇਲਜ਼ਾਮ, ਜਾਣੋ ਪੂਰਾ ਮਾਮਲਾ
Anthropic ਨੇ DeepSeek, Moonshot ਅਤੇ MiniMax 'ਤੇ Claude ਨਾਲ ਗੈਰ-ਕਾਨੂੰਨੀ ਡਿਸਟਿਲੇਸ਼ਨ ਦਾ ਇਲਜ਼ਾਮ ਲਗਾਇਆ ਹੈ।

Published : February 25, 2026 at 10:32 AM IST
ਹੈਦਰਾਬਾਦ: ਏਆਈ ਦੀ ਦੁਨੀਆ ਵਿੱਚ ਹੁਣ ਇੱਕ ਨਵਾਂ ਵਿਵਾਦ ਸੁਰਖੀਆਂ ਵਿੱਚ ਆ ਗਿਆ ਹੈ। ਅਮਰੀਕਾ ਦੀ ਮਸ਼ਹੂਰ ਏਆਈ ਕੰਪਨੀ Anthropic ਨੇ Deepseek, Moonshot AI ਅਤੇ MiniMax 'ਤੇ ਗੰਭੀਰ ਇਲਜ਼ਾਮ ਲਗਾਉਦੇ ਹੋਏ ਕਿਹਾ ਹੈ ਕਿ ਇਨ੍ਹਾਂ ਤਿੰਨਾਂ ਚੀਨੀ ਲੈਬਾਂ ਨੇ ਉਨ੍ਹਾਂ ਦੇ Claude ਮਾਡਲ ਦੀਆਂ ਸਮਰੱਥਾਵਾਂ ਨੂੰ ਗੈਰ-ਕਾਨੂੰਨੀ ਤਰੀਕੇ ਨਾਲ ਕੱਢਣ ਦੀ ਵੱਡੇ ਪੈਮਾਨੇ 'ਤੇ ਕੋਸ਼ਿਸ਼ ਕੀਤੀ ਹੈ। ਆਸਾਨ ਸ਼ਬਦਾਂ ਵਿੱਚ ਦੱਸੀਏ, ਤਾਂ ਅਮਰੀਕਾ ਦੀ ਏਆਈ ਕੰਪਨੀ ਨੇ ਚੀਨ ਦੀਆਂ ਇਨ੍ਹਾਂ ਕੰਪਨੀਆਂ 'ਤੇ ਉਨ੍ਹਾਂ ਦੇ ਚੈਟਮਾਡਲ ਦਾ ਡਾਟਾ ਅਤੇ ਸਮਰੱਥਾ ਨੂੰ ਵੱਡੇ ਪੈਮਾਨੇ 'ਤੇ ਚੋਰੀ ਕਰਨ ਦਾ ਇਲਜ਼ਾਮ ਲਗਾਇਆ ਹੈ। ਇਸ ਚੋਰੀ ਨੂੰ ਕੰਪਨੀ ਨੇ Industrial-Scale distillation attack ਦੱਸਿਆ ਹੈ ਯਾਨੀ ਕਿ ਅਜਿਹੀ ਕੋਸ਼ਿਸ਼, ਜਿਸ ਵਿੱਚ ਪਾਵਰਫੁੱਲ ਏਆਈ ਮਾਡਲ ਦੇ ਆਊਟਪੁੱਟ ਦਾ ਇਸਤੇਮਾਲ ਕਰਕੇ ਘੱਟ ਸਮਰੱਥ ਮਾਡਲ ਨੂੰ ਤੇਜ਼ੀ ਨਾਲ ਬਿਹਤਰ ਬਣਾਇਆ ਜਾਂਦਾ ਹੈ।
Anthropic ਨੇ ਆਪਣੇ ਅਧਿਕਾਰਿਤ ਬਲੌਗ ਅਤੇ X 'ਤੇ ਪੋਸਟ ਸ਼ੇਅਰ ਕਰਦੇ ਹੋਏ ਕਿਹਾ ਕਿ ਇਨ੍ਹਾਂ ਲੈਬਾਂ ਨੇ 24,000 ਤੋਂ ਜ਼ਿਆਦਾ ਫਰਜ਼ੀ ਅਕਾਊਂਟ ਬਣਾ ਕੇ Claude ਦੇ ਨਾਲ 1.6 ਕਰੋੜ ਤੋਂ ਜ਼ਿਆਦਾ ਗੱਲ ਕੀਤੀ ਅਤੇ ਉਸਦੇ ਆਊਟਪੁੱਟ ਨੂੰ ਚੋਰੀ ਕਰਕੇ ਆਪਣੇ ਮਾਡਲਾਂ ਨੂੰ ਬਿਹਤਰ ਬਣਾਇਆ ਹੈ। ਕੰਪਨੀ ਦਾ ਕਹਿਣਾ ਹੈ ਕਿ ਇਨ੍ਹਾਂ ਐਕਸਚੇਂਜ ਰਾਹੀਂ Claude ਦੀ ਕੋਡਿੰਗ, ਏਜੰਟਿਕ ਰੀਜਨਿੰਗ ਅਤੇ ਟੂਲ ਇਸਤੇਮਾਲ ਵਰਗੀ ਐਡਵਾਂਸ ਸਮਰੱਥਾ ਨੂੰ ਯੋਜਨਾਬੱਧ ਤਰੀਕੇ ਨਾਲ ਕੱਢਿਆ ਗਿਆ ਹੈ। Anthropic ਦਾ ਦੋਸ਼ ਹੈ ਕਿ MiniMax ਨੇ ਸਭ ਤੋਂ ਵੱਡਾ ਆਪਰੇਸ਼ਨ ਚਲਾਇਆ। ਉਸਦੇ 1.3 ਕਰੋੜ ਤੋਂ ਵੀ ਜ਼ਿਆਦਾ ਐਕਸਚੇਂਜ ਸੀ। ਤਿੰਨੋ ਲੈਬਾਂ ਨੇ ਖਾਸ ਕਰਕੇ ਕੋਡਿੰਗ, ਏਜੰਟਿਕ ਰੀਜਨਿੰਗ ਅਤੇ ਟੂਲ ਇਸਤੇਮਾਲ 'ਤੇ ਫੋਕਸ ਅਤੇ ਉਨ੍ਹਾਂ ਨੂੰ ਯੋਜਨਾਬੱਧ ਰੂਪ ਨਾਲ ਕੱਢਿਆ, ਕਿਉਕਿ ਕਲਾਊਡ ਇਨ੍ਹਾਂ ਖੇਤਰਾਂ ਵਿੱਚ ਸਭ ਤੋਂ ਅੱਗੇ ਮੰਨਿਆ ਜਾਂਦਾ ਹੈ।
We’ve identified industrial-scale distillation attacks on our models by DeepSeek, Moonshot AI, and MiniMax.
— Anthropic (@AnthropicAI) February 23, 2026
These labs created over 24,000 fraudulent accounts and generated over 16 million exchanges with Claude, extracting its capabilities to train and improve their own models.
ਕੀ ਹੈ ਪੂਰਾ ਮਾਮਲਾ?
ਕੰਪਨੀ ਅਨੁਸਾਰ, ਇਹ ਕੰਪਨੀਆਂ Distillation ਦੀ ਤਕਨੀਕ ਦਾ ਇਸਤੇਮਾਲ ਕਰ ਰਹੀਆਂ ਸੀ, ਜਿਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਕਿਸੇ ਮਜ਼ਬੂਤ ਏਆਈ ਮਾਡਲ ਦੇ ਜਵਾਬਾਂ ਨੂੰ ਲੈ ਕੇ ਉਸਨੂੰ ਕਿਸੇ ਕੰਮਜ਼ੋਰੀ ਜਾਂ ਛੋਟੇ ਏਆਈ ਮਾਡਲਾਂ ਵਿੱਚ ਟ੍ਰਾਂਸਫਰ ਕਰਨਾ। ਏਆਈ ਇੰਡਸਟਰੀ ਵਿੱਚ ਏਆਈ ਕੰਪਨੀਆਂ ਇਸ ਤਕਨਾਲੋਜੀ ਦਾ ਇਸਤੇਮਾਲ ਕਰਕੇ ਆਪਣੇ ਹੀ ਵੱਡੇ ਏਆਈ ਮਾਡਲਾਂ ਤੋਂ ਡਾਟਾ ਕੱਢ ਕੇ ਆਪਣਾ ਹੀ ਇੱਕ ਛੋਟਾ ਜਾਂ ਘੱਟ ਸਮਰੱਥਾ ਵਾਲਾ ਏਆਈ ਮਾਡਲ ਬਣਾਉਦੀਆਂ ਹਨ। ਹਾਲਾਂਕਿ, Anthropic ਦਾ ਕਹਿਣਾ ਹੈ ਕਿ ਦੂਜਿਆਂ ਦੇ ਮਾਡਲ ਨਾਲ ਇਹ ਕਰਨਾ ਚੋਰੀ ਹੈ।
ਕੰਪਨੀ ਅਨੁਸਾਰ, ਇਸ ਤਰ੍ਹਾਂ ਦੂਜਿਆਂ ਦਾ ਡਾਟਾ ਚੋਰੀ ਕਰਕੇ ਆਪਣਾ ਏਆਈ ਮਾਡਲ ਬਣਾਉਣ ਵਿੱਚ ਘੱਟ ਸਮੇਂ ਅਤੇ ਘੱਟ ਲਾਗਤ ਵਿੱਚ ਉਹ ਸਮਰੱਥਾਵਾਂ ਹਾਸਿਲ ਕੀਤੀਆਂ ਜਾ ਸਕਦੀਆਂ ਹਨ, ਜਿਨ੍ਹਾਂ ਨੂੰ ਆਜ਼ਾਦ ਰੂਪ ਵਿੱਚ ਵਿਕਸਿਤ ਕਰਨ 'ਚ ਸਾਲਾਂ ਲੱਗ ਜਾਂਦੇ ਹਨ ਅਤੇ ਭਾਰੀ ਕੰਪਿਊਟ ਸਰੋਤਾਂ ਦੀ ਲੋੜ ਪੈਂਦੀ ਹੈ।
Anthropic ਨੇ ਚੇਤਾਵਨੀ ਦਿੰਦੇ ਹੋਏ ਕਿਹਾ ਕਿ ਇਸ ਤਰ੍ਹਾਂ ਦੀਆਂ ਘਟਨਾਵਾਂ ਵਧਦੀਆਂ ਜਾ ਰਹੀਆਂ ਹਨ ਅਤੇ ਚੋਰੀ ਕਰਨ ਵਾਲੇ ਲੋਕ ਤੇਜ਼ ਹੁੰਦੇ ਜਾ ਰਹੇ ਹਨ। ਕੰਪਨੀ ਨੇ ਕਿਹਾ ਕਿ ਇਨ੍ਹਾਂ ਮਾਮਲਿਆਂ ਵਿੱਚ ਕਾਰਵਾਈ ਕਰਨ ਲਈ ਹੁਣ ਬਹੁਤ ਘੱਟ ਸਮੇਂ ਬਚਿਆ ਹੈ। ਕੰਪਨੀ ਨੇ ਏਆਈ ਇੰਡਸਟਰੀ, ਪਾਲਿਸੀ ਮੇਕਰ ਅਤੇ ਪੂਰੀ ਗਲੋਬਲ ਏਆਈ ਕੰਮਿਊਨਿਟੀ ਨਾਲ ਇਸ ਮਾਮਲੇ 'ਤੇ ਮਿਲ ਕੇ ਕੰਮ ਕਰਨ ਦੀ ਅਪੀਲ ਕੀਤੀ ਹੈ।
Distillation can be legitimate: AI labs use it to create smaller, cheaper models for their customers.
— Anthropic (@AnthropicAI) February 23, 2026
But foreign labs that illicitly distill American models can remove safeguards, feeding model capabilities into their own military, intelligence, and surveillance systems.
Anthropic ਚੀਨ ਵਿੱਚ Claude ਦਾ ਵਪਾਰਕ ਐਕਸੇਸ ਉਪਲਬਧ ਨਹੀਂ ਕਰਵਾਉਦਾ। ਇਸ ਦੇ ਬਾਵਜੂਦ ਇਲਜ਼ਾਮ ਹੈ ਕਿ ਸਬੰਧਿਤ ਲੈਬਾਂ ਨੇ Proxy ਸਰਵਿਸ ਅਤੇ Hydra Cluster architectures ਦਾ ਇਸਤੇਮਾਲ ਕੀਤਾ ਯਾਨੀ ਏਪੀਆਈ ਅਤੇ ਥਰਡ ਪਾਰਟੀ ਕਲਾਊਡ ਪਲੇਟਫਾਰਮ 'ਤੇ ਫੈਲੇ ਫਰਜ਼ੀ ਅਕਾਊਟ ਦੇ ਵੱਡੇ ਨੈੱਟਵਰਕ ਰਾਹੀਂ ਟ੍ਰੈਫਿਕ ਰੂਟ ਕੀਤਾ ਗਿਆ।
ਕੰਪਨੀ ਦਾ ਕਹਿਣਾ ਹੈ ਕਿ ਇਹ ਸਿਰਫ਼ ਆਈਪੀ ਚੋਰੀ ਦਾ ਮਾਮਲਾ ਨਹੀਂ ਹੈ, ਸਗੋ ਪਹਿਲਾ ਵੱਡਾ ਖਤਰਾ ਸੁਰੱਖਿਆ ਨਾਲ ਜੁੜਿਆ ਹੈ। Anthropic ਦਾ ਦਾਅਵਾ ਹੈ ਕਿ ਉਸ ਦੇ ਮਾਡਲ ਵਿੱਚ ਅਜਿਹੇ ਗਾਰਡਰੇਲ ਬਣਾਏ ਗਏ ਹਨ, ਜੋ ਜੈਵਿਕ ਹਥਿਆਰ ਵਿਕਾਸ ਅਤੇ ਸਾਈਬਰ ਅਟੈਕ ਵਰਗੀਆਂ ਖਤਰਨਾਕ ਗਤੀਵਿਧੀਆਂ ਵਿੱਚ ਗਲਤ ਇਸਤੇਮਾਲ ਨੂੰ ਸੀਮਿਤ ਕਰਦੇ ਹਨ, ਪਰ ਗੈਰ-ਕਾਨੂੰਨੀ ਰੂਪ ਨਾਲ ਡਿਸਟਿਲ ਕੀਤੇ ਮਾਡਲ ਇਨ੍ਹਾਂ ਸੁਰੱਖਿਆ ਪਰਤਾਂ ਨੂੰ ਬਰਕਰਾਰ ਨਹੀਂ ਰੱਖ ਪਾਉਦੇ, ਜਿਸ ਕਾਰਨ ਸੰਵੇਦਨਸ਼ੀਲ ਸਮਰੱਥਾਵਾਂ ਬਿਨ੍ਹਾਂ ਕਿਸੇ ਕੰਟਰੋਲ ਦੇ ਫੈਲ ਸਕਦੀਆਂ ਹਨ।
ਕੰਪਨੀ ਅਨੁਸਾਰ, ਇਸ ਮਾਮਲੇ ਵਿੱਚ ਦੂਜਾ ਮੁੱਦਾ ਅਮਰੀਕਾ ਨਿਰਯਾਤ ਨਾਲ ਜੁੜਿਆ ਹੈ। ਅਮਰੀਕਾ ਚੀਨ ਨੂੰ ਐਡਵਾਂਸ ਚਿੱਪ ਦੇ ਨਿਰਯਾਤ 'ਤੇ ਪਾਬੰਦੀ ਲਗਾ ਚੁੱਕਾ ਹੈ, ਤਾਂਕਿ ਚੀਨ ਦੇ ਫਰੰਟੀਅਰ ਏਆਈ ਡਿਵੈਲਪਮੈਂਟ ਦੀ ਸਪੀਡ ਹੌਲੀ ਕੀਤੀ ਜਾ ਸਕੇ। Anthropic ਦਾ ਕਹਿਣਾ ਹੈ ਕਿ Distillation ਚਲਾਉਣ ਲਈ ਵੀ ਭਾਰੀ ਕੰਪਿਊਟ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ। ਇਸ ਲਈ ਚਿਪ ਕੰਟਰੋਲ ਨੂੰ ਮਜ਼ਬੂਤ ਕਰਨ ਦੀ ਜ਼ਰੂਰਤ ਹੈ।
Anthropic ਨੇ ਆਪਣੇ ਬਲੌਗ ਵਿੱਚ ਕਿਹਾ ਕਿ ਵਿਦੇਸ਼ੀ ਲੈਬਾਂ ਅਮਰੀਕੀ ਮਾਡਲਾਂ ਦੀ ਸਮਰੱਥਾ ਕੱਢ ਕੇ ਉਨ੍ਹਾਂ ਨੂੰ ਇੰਟੈਲੀਜੈਂਸ ਅਤੇ ਨਿਗਰਾਨੀ ਕਰਨ ਵਾਲੇ ਸਿਸਟਮਾਂ ਵਿੱਚ ਸ਼ਾਮਲ ਕਰ ਸਕਦੀਆਂ ਹਨ। ਇਸ ਕਾਰਨ ਕੰਪਨੀ ਨੇ ਇਸ ਚੋਰੀ ਨੂੰ ਰਾਸ਼ਟਰੀ ਸੁਰੱਖਿਆ ਲਈ ਇੱਕ ਗੰਭੀਰ ਚਿੰਤਾ ਦੱਸੀ ਹੈ।
ਇਹ ਵੀ ਪੜ੍ਹੋ:-

