ਸਰਕਾਰਾਂ AI ਨੂੰ ਕੰਟਰੋਲ ਕਰਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਿਵੇਂ ਕਰ ਰਹੀਆਂ ਹਨ
ਮਸ਼ੀਨ ਦੇ ਨਵੇਂ ਨਿਯਮ
ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ (AI) ਦੇ ਜੰਗਲੀ ਯੁੱਗ ਦਾ ਅੰਤ ਹੋ ਰਿਹਾ ਹੈ। ਸਰਕਾਰਾਂ ਹੁਣ ਸਿਰਫ਼ ਤਮਾਸ਼ਾ ਨਹੀਂ ਦੇਖ ਰਹੀਆਂ, ਸਗੋਂ ਉਹ ਨਿਯਮਾਂ ਦੀਆਂ ਕਿਤਾਬਾਂ ਲਿਖ ਰਹੀਆਂ ਹਨ ਜੋ ਇਹ ਤੈਅ ਕਰਨਗੀਆਂ ਕਿ ਕੋਡ ਕਿਵੇਂ ਲਿਖਿਆ ਜਾਵੇਗਾ ਅਤੇ ਇਸਨੂੰ ਕਿੱਥੇ ਵਰਤਿਆ ਜਾ ਸਕਦਾ ਹੈ। ਇਹ ਸਿਰਫ਼ ਨੈਤਿਕਤਾ ਜਾਂ ਅਸਪਸ਼ਟ ਸਿਧਾਂਤਾਂ ਬਾਰੇ ਨਹੀਂ ਹੈ, ਇਹ ਸਖ਼ਤ ਕਾਨੂੰਨ ਅਤੇ ਭਾਰੀ ਜੁਰਮਾਨਿਆਂ ਬਾਰੇ ਹੈ। ਯੂਰਪੀਅਨ ਯੂਨੀਅਨ ਨੇ ਆਪਣੇ AI Act ਨਾਲ ਰਾਹ ਪੱਧਰਾ ਕੀਤਾ ਹੈ। ਅਮਰੀਕਾ ਨੇ ਵੀ ਇੱਕ ਵਿਆਪਕ ਕਾਰਜਕਾਰੀ ਆਦੇਸ਼ ਨਾਲ ਇਸਦਾ ਪਾਲਣ ਕੀਤਾ ਹੈ। ਇਹ ਕਦਮ ਦੁਨੀਆ ਦੀ ਹਰ ਟੈਕ ਕੰਪਨੀ ਲਈ ਗਣਿਤ ਬਦਲ ਦਿੰਦੇ ਹਨ। ਜੇਕਰ ਤੁਸੀਂ ਕੋਈ ਅਜਿਹਾ ਮਾਡਲ ਬਣਾਉਂਦੇ ਹੋ ਜੋ ਇੱਕ ਖਾਸ ਪਾਵਰ ਸੀਮਾ ਤੋਂ ਵੱਧ ਜਾਂਦਾ ਹੈ, ਤਾਂ ਹੁਣ ਤੁਹਾਡੇ ‘ਤੇ ਨਜ਼ਰ ਰਹੇਗੀ। ਜਨਤਕ ਹੋਣ ਤੋਂ ਪਹਿਲਾਂ ਤੁਹਾਨੂੰ ਇਹ ਸਾਬਤ ਕਰਨਾ ਹੋਵੇਗਾ ਕਿ ਇਹ ਸੁਰੱਖਿਅਤ ਹੈ। ਇਹ ਬਦਲਾਅ ਸਵੈ-ਇੱਛਤ ਸੁਰੱਖਿਆ ਵਾਅਦਿਆਂ ਤੋਂ ਲਾਜ਼ਮੀ ਨਿਗਰਾਨੀ ਵੱਲ ਤਬਦੀਲੀ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ। ਆਮ ਉਪਭੋਗਤਾ ਲਈ, ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਜੋ ਟੂਲ ਤੁਸੀਂ ਕੱਲ੍ਹ ਵਰਤੋਗੇ, ਉਹ ਅੱਜ ਵਾਲਿਆਂ ਨਾਲੋਂ ਵੱਖਰੇ ਹੋ ਸਕਦੇ ਹਨ। ਕੁਝ ਫੀਚਰ ਤੁਹਾਡੇ ਦੇਸ਼ ਵਿੱਚ ਬਲਾਕ ਹੋ ਸਕਦੇ ਹਨ। ਹੋਰ ਟੂਲ ਇਸ ਬਾਰੇ ਵਧੇਰੇ ਪਾਰਦਰਸ਼ੀ ਹੋ ਸਕਦੇ ਹਨ ਕਿ ਉਹ ਤੁਹਾਡੇ ਡੇਟਾ ਦੀ ਵਰਤੋਂ ਕਿਵੇਂ ਕਰਦੇ ਹਨ। ਟੀਚਾ ਪ੍ਰਗਤੀ ਅਤੇ ਸੁਰੱਖਿਆ ਵਿੱਚ ਸੰਤੁਲਨ ਬਣਾਉਣਾ ਹੈ, ਪਰ ਇਹ ਰਸਤਾ ਰੁਕਾਵਟਾਂ ਨਾਲ ਭਰਿਆ ਹੋਇਆ ਹੈ।
ਨੈਤਿਕਤਾ ਤੋਂ ਲਾਗੂਕਰਨ ਤੱਕ
ਨਵੇਂ ਨਿਯਮਾਂ ਨੂੰ ਸਮਝਣ ਲਈ, ਤੁਹਾਨੂੰ ਜੋਖਮ ਦੀਆਂ ਸ਼੍ਰੇਣੀਆਂ ਨੂੰ ਦੇਖਣਾ ਹੋਵੇਗਾ। ਜ਼ਿਆਦਾਤਰ ਸਰਕਾਰਾਂ ‘ਇੱਕੋ ਨਿਯਮ ਸਾਰਿਆਂ ਲਈ’ ਵਾਲੀ ਪਹੁੰਚ ਤੋਂ ਦੂਰ ਹੋ ਰਹੀਆਂ ਹਨ। ਇਸ ਦੀ ਬਜਾਏ, ਉਹ ਸੰਭਾਵੀ ਨੁਕਸਾਨ ਦੇ ਆਧਾਰ ‘ਤੇ ਸਿਸਟਮਾਂ ਨੂੰ ਗ੍ਰੇਡ ਦੇ ਰਹੀਆਂ ਹਨ। ਇਹ ਇੱਕ ਸਿੱਧਾ ਕਾਰਜਸ਼ੀਲ ਬਦਲਾਅ ਹੈ। ਕੰਪਨੀਆਂ ਹੁਣ ਸਿਰਫ਼ ਇੱਕ ਪ੍ਰੋਡਕਟ ਰਿਲੀਜ਼ ਕਰਕੇ ਚੰਗੇ ਦੀ ਉਮੀਦ ਨਹੀਂ ਕਰ ਸਕਦੀਆਂ। ਉਨ੍ਹਾਂ ਨੂੰ ਉਪਭੋਗਤਾ ਤੱਕ ਪਹੁੰਚਣ ਤੋਂ ਪਹਿਲਾਂ ਆਪਣੀ ਟੈਕਨਾਲੋਜੀ ਨੂੰ ਸ਼੍ਰੇਣੀਬੱਧ ਕਰਨਾ ਹੋਵੇਗਾ। ਇਹ ਵਰਗੀਕਰਨ ਸਰਕਾਰ ਦੁਆਰਾ ਲਾਗੂ ਕੀਤੀ ਜਾਣ ਵਾਲੀ ਜਾਂਚ ਦੇ ਪੱਧਰ ਨੂੰ ਨਿਰਧਾਰਤ ਕਰਦਾ ਹੈ। ਇਹ ਕਾਨੂੰਨੀ ਜ਼ਿੰਮੇਵਾਰੀ ਦੇ ਪੱਧਰ ਨੂੰ ਵੀ ਨਿਰਧਾਰਤ ਕਰਦਾ ਹੈ ਜੇਕਰ ਕੁਝ ਗਲਤ ਹੋ ਜਾਂਦਾ ਹੈ। ਫੋਕਸ ਇਸ ਗੱਲ ਤੋਂ ਹਟ ਗਿਆ ਹੈ ਕਿ AI ਕੀ ਹੈ, ਇਸ ਗੱਲ ‘ਤੇ ਕਿ AI ਕੀ ਕਰਦਾ ਹੈ। ਜੇਕਰ ਕੋਈ ਸਿਸਟਮ ਲੋਕਾਂ ਬਾਰੇ ਫੈਸਲੇ ਲੈਂਦਾ ਹੈ, ਤਾਂ ਉਸ ਨਾਲ ਬਿੱਲੀਆਂ ਦੀਆਂ ਤਸਵੀਰਾਂ ਬਣਾਉਣ ਵਾਲੇ ਸਿਸਟਮ ਨਾਲੋਂ ਕਿਤੇ ਜ਼ਿਆਦਾ ਸ਼ੱਕ ਨਾਲ ਪੇਸ਼ ਆਇਆ ਜਾਂਦਾ ਹੈ।
ਸਭ ਤੋਂ ਸਖ਼ਤ ਨਿਯਮ ਉਨ੍ਹਾਂ ਸਿਸਟਮਾਂ ‘ਤੇ ਲਾਗੂ ਹੁੰਦੇ ਹਨ ਜਿਨ੍ਹਾਂ ਨੂੰ ਅਸਵੀਕਾਰਨਯੋਗ ਜੋਖਮ ਮੰਨਿਆ ਜਾਂਦਾ ਹੈ। ਇਹ ਸਿਰਫ਼ ਨਿਰਾਸ਼ਾਜਨਕ ਨਹੀਂ ਹਨ, ਇਹ ਪੂਰੀ ਤਰ੍ਹਾਂ ਬੈਨ ਹਨ। ਇਹ ਡਿਵੈਲਪਰਾਂ ਲਈ ਇੱਕ ਸਪੱਸ਼ਟ ਸੀਮਾ ਬਣਾਉਂਦਾ ਹੈ। ਉਹ ਜਾਣਦੇ ਹਨ ਕਿ ਉਹ ਕਿਹੜੀਆਂ ਲਾਈਨਾਂ ਪਾਰ ਨਹੀਂ ਕਰ ਸਕਦੇ। ਬਾਕੀ ਸਭ ਕੁਝ ਲਈ, ਨਿਯਮਾਂ ਨੂੰ ਦਸਤਾਵੇਜ਼ੀਕਰਨ ਦੇ ਇੱਕ ਨਵੇਂ ਪੱਧਰ ਦੀ ਲੋੜ ਹੈ। ਕੰਪਨੀਆਂ ਨੂੰ ਇਸ ਗੱਲ ਦਾ ਵਿਸਤ੍ਰਿਤ ਰਿਕਾਰਡ ਰੱਖਣਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਉਨ੍ਹਾਂ ਦੇ ਮਾਡਲ ਕਿਵੇਂ ਸਿਖਲਾਈ ਪ੍ਰਾਪਤ ਸਨ। ਉਨ੍ਹਾਂ ਨੂੰ ਇਹ ਦੱਸਣ ਦੇ ਯੋਗ ਵੀ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਮਾਡਲ ਆਪਣੇ ਸਿੱਟਿਆਂ ਤੱਕ ਕਿਵੇਂ ਪਹੁੰਚਦਾ ਹੈ। ਇਹ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਤਕਨੀਕੀ ਚੁਣੌਤੀ ਹੈ ਕਿਉਂਕਿ ਬਹੁਤ ਸਾਰੇ ਆਧੁਨਿਕ ਮਾਡਲ ਅਸਲ ਵਿੱਚ ਬਲੈਕ ਬਾਕਸ ਹਨ। ਉਨ੍ਹਾਂ ਨੂੰ ਸਮਝਣ ਯੋਗ ਬਣਾਉਣ ਲਈ ਇਹ ਬਦਲਣਾ ਜ਼ਰੂਰੀ ਹੈ ਕਿ ਉਹ ਕਿਵੇਂ ਡਿਜ਼ਾਈਨ ਕੀਤੇ ਗਏ ਹਨ। ਨਿਯਮ ਇਹ ਵੀ ਮੰਗ ਕਰਦੇ ਹਨ ਕਿ ਸਿਖਲਾਈ ਲਈ ਵਰਤਿਆ ਜਾਣ ਵਾਲਾ ਡੇਟਾ ਸਾਫ਼ ਅਤੇ ਪੱਖਪਾਤ ਤੋਂ ਮੁਕਤ ਹੋਵੇ। ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਡੇਟਾ ਇਕੱਠਾ ਕਰਨ ਦੀ ਪ੍ਰਕਿਰਿਆ ਹੁਣ ਕਾਨੂੰਨੀ ਆਡਿਟ ਦੇ ਅਧੀਨ ਹੈ। ਹੇਠ ਲਿਖੀਆਂ ਸ਼੍ਰੇਣੀਆਂ ਮੌਜੂਦਾ ਰੈਗੂਲੇਟਰੀ ਪਹੁੰਚ ਨੂੰ ਪਰਿਭਾਸ਼ਿਤ ਕਰਦੀਆਂ ਹਨ:
- ਪ੍ਰਤੀਬੰਧਿਤ ਸਿਸਟਮ ਜੋ ਵਿਵਹਾਰ ਨੂੰ ਹੇਰਾਫੇਰੀ ਕਰਨ ਲਈ ਸੋਸ਼ਲ ਸਕੋਰਿੰਗ ਜਾਂ ਧੋਖਾਧੜੀ ਵਾਲੀਆਂ ਤਕਨੀਕਾਂ ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹਨ।
- ਉੱਚ ਜੋਖਮ ਵਾਲੇ ਸਿਸਟਮ ਜੋ ਨਾਜ਼ੁਕ ਬੁਨਿਆਦੀ ਢਾਂਚੇ, ਭਰਤੀ ਅਤੇ ਕਾਨੂੰਨ ਲਾਗੂ ਕਰਨ ਵਿੱਚ ਵਰਤੇ ਜਾਂਦੇ ਹਨ ਜਿਨ੍ਹਾਂ ਲਈ ਸਖ਼ਤ ਆਡਿਟ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ।
- ਸੀਮਤ ਜੋਖਮ ਵਾਲੇ ਸਿਸਟਮ ਜਿਵੇਂ ਕਿ ਚੈਟਬੋਟਸ ਜਿਨ੍ਹਾਂ ਨੂੰ ਇਹ ਖੁਲਾਸਾ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਉਹ ਇਨਸਾਨ ਨਹੀਂ ਹਨ।
- ਘੱਟੋ-ਘੱਟ ਜੋਖਮ ਵਾਲੇ ਸਿਸਟਮ ਜਿਵੇਂ ਕਿ AI ਸਮਰਥਿਤ ਵੀਡੀਓ ਗੇਮਾਂ ਜਿਨ੍ਹਾਂ ਨੂੰ ਘੱਟ ਪਾਬੰਦੀਆਂ ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਪੈਂਦਾ ਹੈ।
ਇਹ ਢਾਂਚਾ ਲਚਕਦਾਰ ਹੋਣ ਲਈ ਤਿਆਰ ਕੀਤਾ ਗਿਆ ਹੈ। ਜਿਵੇਂ-ਜਿਵੇਂ ਟੈਕਨਾਲੋਜੀ ਬਦਲਦੀ ਹੈ, ਉੱਚ ਜੋਖਮ ਵਾਲੀਆਂ ਐਪਲੀਕੇਸ਼ਨਾਂ ਦੀ ਸੂਚੀ ਵਧ ਸਕਦੀ ਹੈ। ਇਹ ਕਾਨੂੰਨ ਨੂੰ ਪ੍ਰਸੰਗਿਕ ਰੱਖਦਾ ਹੈ ਭਾਵੇਂ ਸਾਫਟਵੇਅਰ ਵਿਕਸਿਤ ਹੋ ਰਿਹਾ ਹੋਵੇ। ਹਾਲਾਂਕਿ, ਇਹ ਕਾਰੋਬਾਰਾਂ ਲਈ ਸਥਾਈ ਅਨਿਸ਼ਚਿਤਤਾ ਦੀ ਸਥਿਤੀ ਵੀ ਪੈਦਾ ਕਰਦਾ ਹੈ। ਉਨ੍ਹਾਂ ਨੂੰ ਲਗਾਤਾਰ ਇਹ ਜਾਂਚ ਕਰਨੀ ਪੈਂਦੀ ਹੈ ਕਿ ਕੀ ਉਨ੍ਹਾਂ ਦਾ ਨਵਾਂ ਫੀਚਰ ਵਧੇਰੇ ਨਿਯੰਤ੍ਰਿਤ ਸ਼੍ਰੇਣੀ ਵਿੱਚ ਤਾਂ ਨਹੀਂ ਚਲਾ ਗਿਆ। ਇਹ ਇੱਕ ਅਜਿਹੀ ਦੁਨੀਆ ਵਿੱਚ ਸਾਫਟਵੇਅਰ ਬਣਾਉਣ ਦੀ ਨਵੀਂ ਹਕੀਕਤ ਹੈ ਜੋ ਮਸ਼ੀਨ ਦੀ ਸ਼ਕਤੀ ਤੋਂ ਸਾਵਧਾਨ ਹੈ।
ਇੱਕ ਖੰਡਿਤ ਗਲੋਬਲ ਫਰੇਮਵਰਕ
ਇਨ੍ਹਾਂ ਨਿਯਮਾਂ ਦਾ ਪ੍ਰਭਾਵ ਕਿਸੇ ਇੱਕ ਦੇਸ਼ ਦੀਆਂ ਸਰਹੱਦਾਂ ਤੱਕ ਸੀਮਤ ਨਹੀਂ ਹੈ। ਅਸੀਂ *ਬ੍ਰਸੇਲਜ਼ ਇਫੈਕਟ* ਦਾ ਉਭਾਰ ਦੇਖ ਰਹੇ ਹਾਂ। ਜਦੋਂ EU ਟੈਕ ਰੈਗੂਲੇਸ਼ਨ ਲਈ ਉੱਚ ਪੱਧਰ ਨਿਰਧਾਰਤ ਕਰਦਾ ਹੈ, ਤਾਂ ਗਲੋਬਲ ਕੰਪਨੀਆਂ ਅਕਸਰ ਆਪਣੇ ਕੰਮਕਾਜ ਨੂੰ ਸਰਲ ਬਣਾਉਣ ਲਈ ਹਰ ਜਗ੍ਹਾ ਉਨ੍ਹਾਂ ਮਾਪਦੰਡਾਂ ਨੂੰ ਅਪਣਾ ਲੈਂਦੀਆਂ ਹਨ। ਵੱਖ-ਵੱਖ ਬਾਜ਼ਾਰਾਂ ਲਈ ਦਸ ਵੱਖ-ਵੱਖ ਸੰਸਕਰਣ ਬਣਾਉਣ ਨਾਲੋਂ ਇੱਕ ਅਨੁਕੂਲ ਉਤਪਾਦ ਬਣਾਉਣਾ ਸਸਤਾ ਹੈ। ਇਹ ਯੂਰਪ ਨੂੰ ਸਿਲੀਕਾਨ ਵੈਲੀ ਵਿੱਚ AI ਕਿਵੇਂ ਬਣਾਇਆ ਜਾਂਦਾ ਹੈ, ਇਸ ‘ਤੇ ਭਾਰੀ ਪ੍ਰਭਾਵ ਦਿੰਦਾ ਹੈ। ਤੁਸੀਂ ਇਹ ਦੇਖਣ ਲਈ EU AI Act ਬਾਰੇ ਹੋਰ ਪੜ੍ਹ ਸਕਦੇ ਹੋ ਕਿ ਇਹ ਮਾਪਦੰਡ ਕਿਵੇਂ ਬਣੇ ਹਨ। ਅਮਰੀਕਾ ਵਿੱਚ, ਪਹੁੰਚ ਵੱਖਰੀ ਹੈ ਪਰ ਬਰਾਬਰ ਮਹੱਤਵਪੂਰਨ ਹੈ। ਸਰਕਾਰ ਟੈਕ ਦਿੱਗਜਾਂ ਨੂੰ ਉਨ੍ਹਾਂ ਦੇ ਸੁਰੱਖਿਆ ਟੈਸਟ ਦੇ ਨਤੀਜੇ ਸਾਂਝੇ ਕਰਨ ਲਈ ਮਜਬੂਰ ਕਰਨ ਲਈ **ਡਿਫੈਂਸ ਪ੍ਰੋਡਕਸ਼ਨ ਐਕਟ** ਦੀ ਵਰਤੋਂ ਕਰ ਰਹੀ ਹੈ। ਇਹ ਸੰਕੇਤ ਦਿੰਦਾ ਹੈ ਕਿ ਅਮਰੀਕਾ ਵੱਡੇ ਪੈਮਾਨੇ ਦੇ AI ਨੂੰ ਰਾਸ਼ਟਰੀ ਸੁਰੱਖਿਆ ਦਾ ਮਾਮਲਾ ਮੰਨਦਾ ਹੈ।
ਇਸ ਦੌਰਾਨ, ਚੀਨ ਨੇ ਵਧੇਰੇ ਸਿੱਧਾ ਰਸਤਾ ਅਪਣਾਇਆ ਹੈ। ਉਨ੍ਹਾਂ ਦੇ ਨਿਯਮ ਜਨਰੇਟਿਵ AI ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੀ ਸਮੱਗਰੀ ‘ਤੇ ਕੇਂਦ੍ਰਿਤ ਹਨ। ਉਹ ਮੰਗ ਕਰਦੇ ਹਨ ਕਿ ਆਉਟਪੁੱਟ ਸਮਾਜਿਕ ਕਦਰਾਂ-ਕੀਮਤਾਂ ਨਾਲ ਮੇਲ ਖਾਂਦੇ ਹੋਣ ਅਤੇ ਰਾਜ ਦੀ ਸ਼ਕਤੀ ਨੂੰ ਕਮਜ਼ੋਰ ਨਾ ਕਰਨ। ਇਹ ਇੱਕ ਖੰਡਿਤ ਸੰਸਾਰ ਬਣਾਉਂਦਾ ਹੈ ਜਿੱਥੇ ਇੱਕੋ ਮਾਡਲ ਵੱਖ-ਵੱਖ ਤਰੀਕੇ ਨਾਲ ਵਿਵਹਾਰ ਕਰ ਸਕਦਾ ਹੈ, ਇਸ ਗੱਲ ‘ਤੇ ਨਿਰਭਰ ਕਰਦਾ ਹੈ ਕਿ ਤੁਸੀਂ ਕਿੱਥੇ ਲੌਗ ਇਨ ਕਰਦੇ ਹੋ। ਬੀਜਿੰਗ ਵਿੱਚ ਇੱਕ ਮਾਡਲ ਦੇ ਪੈਰਿਸ ਜਾਂ ਨਿਊਯਾਰਕ ਨਾਲੋਂ ਵੱਖਰੇ ਗਾਰਡਰੇਲ ਹੋਣਗੇ। ਇਹ ਖੰਡਨ ਉਨ੍ਹਾਂ ਡਿਵੈਲਪਰਾਂ ਲਈ ਸਿਰਦਰਦੀ ਪੈਦਾ ਕਰਦਾ ਹੈ ਜਿਨ੍ਹਾਂ ਨੂੰ ਹੁਣ ਵਿਰੋਧੀ ਨਿਯਮਾਂ ਦੇ ਜਾਲ ਵਿੱਚ ਕੰਮ ਕਰਨਾ ਪੈਂਦਾ ਹੈ। ਕੁਝ ਦੇਸ਼ ਵਧੇਰੇ ਖੁੱਲ੍ਹੇਪਣ ਚਾਹੁੰਦੇ ਹਨ ਜਦੋਂ ਕਿ ਦੂਸਰੇ ਬਿਰਤਾਂਤ ‘ਤੇ ਵਧੇਰੇ ਨਿਯੰਤਰਣ ਚਾਹੁੰਦੇ ਹਨ। ਗਲੋਬਲ ਦਰਸ਼ਕਾਂ ਲਈ, ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ AI ਅਨੁਭਵ ਸਥਾਨਕ ਬਣ ਰਿਹਾ ਹੈ। ਇੱਕ ਸਿੰਗਲ, ਸਰਹੱਦ ਰਹਿਤ ਇੰਟਰਨੈਟ ਦਾ ਸੁਪਨਾ ਫਿੱਕਾ ਪੈ ਰਿਹਾ ਹੈ। ਇਸਦੀ ਜਗ੍ਹਾ ਇੱਕ ਨਿਯੰਤ੍ਰਿਤ ਵਾਤਾਵਰਣ ਹੈ ਜਿੱਥੇ ਤੁਹਾਡਾ ਸਥਾਨ ਇਹ ਨਿਰਧਾਰਤ ਕਰਦਾ ਹੈ ਕਿ ਮਸ਼ੀਨ ਨੂੰ ਤੁਹਾਨੂੰ ਕੀ ਦੱਸਣ ਦੀ ਇਜਾਜ਼ਤ ਹੈ। ਇਹ 2024 ਦੀ ਨਵੀਂ ਹਕੀਕਤ ਹੈ। ਇਹ ਇੱਕ ਅਜਿਹਾ ਬਦਲਾਅ ਹੈ ਜੋ ਤਕਨੀਕੀ ਵਿਕਾਸ ਦੇ ਅਗਲੇ ਦਹਾਕੇ ਨੂੰ ਪਰਿਭਾਸ਼ਿਤ ਕਰੇਗਾ।
ਰੈਗੂਲੇਟਰੀ ਨਜ਼ਰ ਹੇਠ ਰੋਜ਼ਾਨਾ ਜੀਵਨ
ਸਾਰਾਹ ਨਾਮ ਦੀ ਇੱਕ ਪ੍ਰੋਜੈਕਟ ਮੈਨੇਜਰ ਲਈ ਇੱਕ ਆਮ ਸਵੇਰ ਦੀ ਕਲਪਨਾ ਕਰੋ। ਉਹ ਆਪਣੇ ਦਿਨ ਦੀ ਸ਼ੁਰੂਆਤ ਈਮੇਲਾਂ ਦੀ ਇੱਕ ਲੰਬੀ ਲੜੀ ਦਾ ਸਾਰ ਦੇਣ ਲਈ ਇੱਕ AI ਟੂਲ ਖੋਲ੍ਹ ਕੇ ਕਰਦੀ ਹੈ। ਨਵੇਂ ਨਿਯਮਾਂ ਦੇ ਤਹਿਤ, ਉਸਦੇ ਸਾਫਟਵੇਅਰ ਨੂੰ ਉਸਨੂੰ ਸੂਚਿਤ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਸਾਰ ਇੱਕ ਐਲਗੋਰਿਦਮ ਦੁਆਰਾ ਤਿਆਰ ਕੀਤਾ ਗਿਆ ਸੀ। ਇਸ ਨੂੰ ਇਹ ਵੀ ਯਕੀਨੀ ਬਣਾਉਣਾ ਹੋਵੇਗਾ ਕਿ ਉਸਦੀ ਕੰਪਨੀ ਦਾ ਡੇਟਾ ਉਸਦੀ ਸਹਿਮਤੀ ਤੋਂ ਬਿਨਾਂ ਪਬਲਿਕ ਮਾਡਲ ਨੂੰ ਸਿਖਲਾਈ ਦੇਣ ਲਈ ਨਹੀਂ ਵਰਤਿਆ ਜਾ ਰਿਹਾ ਹੈ। ਇਹ ਹਾਲ ਹੀ ਦੇ ਕਾਨੂੰਨਾਂ ਵਿੱਚ ਬਣਾਈ ਗਈ ਨਵੀਂ ਗੋਪਨੀਯਤਾ ਸੁਰੱਖਿਆ ਦਾ ਸਿੱਧਾ ਨਤੀਜਾ ਹੈ। ਬਾਅਦ ਵਿੱਚ, ਸਾਰਾਹ ਇੱਕ ਟੈਕ ਫਰਮ ਵਿੱਚ ਇੱਕ ਨਵੀਂ ਭੂਮਿਕਾ ਲਈ ਅਰਜ਼ੀ ਦਿੰਦੀ ਹੈ। ਫਰਮ ਇੱਕ AI ਸਕ੍ਰੀਨਿੰਗ ਟੂਲ ਦੀ ਵਰਤੋਂ ਕਰਦੀ ਹੈ। ਕਿਉਂਕਿ ਇਹ ਇੱਕ ਉੱਚ ਜੋਖਮ ਵਾਲੀ ਐਪਲੀਕੇਸ਼ਨ ਹੈ, ਕੰਪਨੀ ਨੂੰ ਪੱਖਪਾਤ ਲਈ ਟੂਲ ਦਾ ਆਡਿਟ ਕਰਨਾ ਪਿਆ ਹੈ। ਸਾਰਾਹ ਕੋਲ ਇਹ ਪੁੱਛਣ ਦਾ ਕਾਨੂੰਨੀ ਅਧਿਕਾਰ ਹੈ ਕਿ AI ਨੇ ਉਸਨੂੰ ਉਸ ਤਰ੍ਹਾਂ ਕਿਉਂ ਦਰਜਾ ਦਿੱਤਾ ਜਿਵੇਂ ਉਸਨੇ ਕੀਤਾ। ਪਹਿਲਾਂ, ਉਸਨੂੰ ਇੱਕ ਆਮ ਅਸਵੀਕਾਰ ਪ੍ਰਾਪਤ ਹੁੰਦਾ ਸੀ। ਹੁਣ, ਉਸ ਕੋਲ ਪਾਰਦਰਸ਼ਤਾ ਦਾ ਇੱਕ ਰਸਤਾ ਹੈ। ਇਹ ਇੱਕ ਠੋਸ ਉਦਾਹਰਣ ਹੈ ਕਿ ਕਿਵੇਂ ਸ਼ਾਸਨ ਕਾਰਪੋਰੇਸ਼ਨਾਂ ਅਤੇ ਵਿਅਕਤੀਆਂ ਵਿਚਕਾਰ ਸ਼ਕਤੀ ਦੇ ਗਤੀਸ਼ੀਲ ਨੂੰ ਬਦਲਦਾ ਹੈ।
ਦੁਪਹਿਰ ਨੂੰ, ਸਾਰਾਹ ਇੱਕ ਸ਼ਾਪਿੰਗ ਮਾਲ ਵਿੱਚੋਂ ਲੰਘਦੀ ਹੈ। ਕੁਝ ਸ਼ਹਿਰਾਂ ਵਿੱਚ, ਚਿਹਰੇ ਦੀ ਪਛਾਣ (facial recognition) ਉਸਦੀਆਂ ਗਤੀਵਿਧੀਆਂ ਨੂੰ ਟਰੈਕ ਕਰ ਰਹੀ ਹੋਵੇਗੀ ਤਾਂ ਜੋ ਨਿਸ਼ਾਨਾ ਬਣਾਏ ਗਏ ਵਿਗਿਆਪਨ ਦਿਖਾਏ ਜਾ ਸਕਣ। ਸਖ਼ਤ EU ਨਿਯਮਾਂ ਦੇ ਤਹਿਤ, ਇਸ ਕਿਸਮ ਦੀ ਰੀਅਲ-ਟਾਈਮ ਨਿਗਰਾਨੀ ਸੀਮਤ ਹੈ। ਮਾਲ ਕੋਲ ਇਸਦੀ ਵਰਤੋਂ ਕਰਨ ਦਾ ਇੱਕ ਖਾਸ ਕਾਨੂੰਨੀ ਕਾਰਨ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ ਅਤੇ ਸਾਰਾਹ ਨੂੰ ਸੂਚਿਤ ਕੀਤਾ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ। ਉਹ ਜੋ ਉਤਪਾਦ ਵਰਤਦੀ ਹੈ ਉਹ ਵੀ ਬਦਲ ਰਹੇ ਹਨ। OpenAI ਅਤੇ Google ਵਰਗੀਆਂ ਕੰਪਨੀਆਂ ਪਹਿਲਾਂ ਹੀ ਸਥਾਨਕ ਕਾਨੂੰਨਾਂ ਦੀ ਪਾਲਣਾ ਕਰਨ ਲਈ ਆਪਣੇ ਫੀਚਰਾਂ ਨੂੰ ਅਨੁਕੂਲ ਕਰ ਰਹੀਆਂ ਹਨ। ਤੁਸੀਂ ਦੇਖ ਸਕਦੇ ਹੋ ਕਿ ਕੁਝ ਚਿੱਤਰ ਬਣਾਉਣ ਵਾਲੇ ਟੂਲ ਤੁਹਾਡੇ ਖੇਤਰ ਵਿੱਚ ਉਪਲਬਧ ਨਹੀਂ ਹਨ ਜਾਂ ਉਨ੍ਹਾਂ ਕੋਲ ਸਖ਼ਤ ਫਿਲਟਰ ਹਨ ਜੋ ਉਨ੍ਹਾਂ ਨੂੰ ਜਨਤਕ ਹਸਤੀਆਂ ਦੇ ਯਥਾਰਥਵਾਦੀ ਚਿਹਰੇ ਬਣਾਉਣ ਤੋਂ ਰੋਕਦੇ ਹਨ। ਇਹ ਕੋਈ ਤਕਨੀਕੀ ਸੀਮਾ ਨਹੀਂ ਹੈ। ਇਹ ਇੱਕ ਕਾਨੂੰਨੀ ਹੈ। ਇਨ੍ਹਾਂ ਨਿਯਮਾਂ ਲਈ ਦਲੀਲ ਅਸਲ ਮਹਿਸੂਸ ਹੁੰਦੀ ਹੈ ਜਦੋਂ ਤੁਸੀਂ ਚੋਣਾਂ ਨੂੰ ਵਿਗਾੜਨ ਲਈ ਡੀਪਫੇਕ ਦੀ ਸੰਭਾਵਨਾ ਜਾਂ ਲੋਕਾਂ ਨੂੰ ਰਿਹਾਇਸ਼ ਤੋਂ ਇਨਕਾਰ ਕਰਨ ਲਈ ਪੱਖਪਾਤੀ ਐਲਗੋਰਿਦਮ ਬਾਰੇ ਵਿਚਾਰ ਕਰਦੇ ਹੋ। ਗਾਰਡਰੇਲ ਲਗਾ ਕੇ, ਸਰਕਾਰਾਂ ਇਨ੍ਹਾਂ ਨੁਕਸਾਨਾਂ ਨੂੰ ਵਾਪਰਨ ਤੋਂ ਪਹਿਲਾਂ ਰੋਕਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰ ਰਹੀਆਂ ਹਨ। ਇਹ ਕਾਰਵਾਈ ਵਿੱਚ AI ਸੁਰੱਖਿਆ ਲਈ ਅਮਰੀਕੀ ਪਹੁੰਚ ਹੈ।
BotNews.today ਸਮੱਗਰੀ ਦੀ ਖੋਜ, ਲਿਖਣ, ਸੰਪਾਦਨ ਅਤੇ ਅਨੁਵਾਦ ਕਰਨ ਲਈ AI ਟੂਲਸ ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ। ਸਾਡੀ ਟੀਮ ਜਾਣਕਾਰੀ ਨੂੰ ਉਪਯੋਗੀ, ਸਪਸ਼ਟ ਅਤੇ ਭਰੋਸੇਮੰਦ ਰੱਖਣ ਲਈ ਪ੍ਰਕਿਰਿਆ ਦੀ ਸਮੀਖਿਆ ਅਤੇ ਨਿਗਰਾਨੀ ਕਰਦੀ ਹੈ।
ਪਾਲਣਾ ਦੀਆਂ ਲੁਕੀਆਂ ਹੋਈਆਂ ਲਾਗਤਾਂ
ਸਾਨੂੰ ਉਨ੍ਹਾਂ ਮੁਸ਼ਕਲ ਸਵਾਲਾਂ ਨੂੰ ਪੁੱਛਣਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਇੱਕ ਨਿਯੰਤ੍ਰਿਤ ਸੰਸਾਰ ਵਿੱਚ ਅਸਲ ਵਿੱਚ ਕੌਣ ਜਿੱਤਦਾ ਹੈ। ਕੀ ਇੱਕ ਭਾਰੀ ਰੈਗੂਲੇਟਰੀ ਬੋਝ ਅਸਲ ਵਿੱਚ ਜਨਤਾ ਦੀ ਰੱਖਿਆ ਕਰਦਾ ਹੈ, ਜਾਂ ਕੀ ਇਹ ਸਿਰਫ਼ ਮੌਜੂਦਾ ਕੰਪਨੀਆਂ ਦੀ ਰੱਖਿਆ ਕਰਦਾ ਹੈ? ਵੱਡੀਆਂ ਟੈਕ ਫਰਮਾਂ ਕੋਲ ਪਾਲਣਾ ਨੂੰ ਸੰਭਾਲਣ ਲਈ ਸੈਂਕੜੇ ਵਕੀਲਾਂ ਅਤੇ ਇੰਜੀਨੀਅਰਾਂ ਨੂੰ ਨਿਯੁਕਤ ਕਰਨ ਲਈ ਸਰੋਤ ਹਨ। ਗੈਰੇਜ ਵਿੱਚ ਇੱਕ ਛੋਟਾ ਸਟਾਰਟਅੱਪ ਨਹੀਂ ਕਰਦਾ। ਅਸੀਂ ਇੱਕ ਅਜਿਹੀ ਦੁਨੀਆ ਬਣਾਉਣ ਦਾ ਜੋਖਮ ਲੈਂਦੇ ਹਾਂ ਜਿੱਥੇ ਸਿਰਫ਼ ਦਿੱਗਜ ਹੀ ਨਵੀਨਤਾ ਕਰਨ ਦੇ ਸਮਰੱਥ ਹਨ। ਇਸ ਨਾਲ ਘੱਟ ਮੁਕਾਬਲਾ ਅਤੇ ਉਪਭੋਗਤਾਵਾਂ ਲਈ ਉੱਚੀਆਂ ਕੀਮਤਾਂ ਹੋ ਸਕਦੀਆਂ ਹਨ। ਗੋਪਨੀਯਤਾ ਬਨਾਮ ਸੁਰੱਖਿਆ ਦਾ ਸਵਾਲ ਵੀ ਹੈ। ਜਦੋਂ ਸਰਕਾਰਾਂ ਇੱਕ AI ਮਾਡਲ ਦੇ ਅੰਦਰੂਨੀ ਕੰਮਕਾਜ ਤੱਕ ਪਹੁੰਚ ਦੀ ਮੰਗ ਕਰਦੀਆਂ ਹਨ, ਤਾਂ ਉਸ ਡੇਟਾ ਦੀ ਰੱਖਿਆ ਕੌਣ ਕਰ ਰਿਹਾ ਹੈ? ਜੇਕਰ ਕੋਈ ਸਰਕਾਰ ਇਹ ਯਕੀਨੀ ਬਣਾਉਣ ਲਈ ਮਾਡਲ ਦਾ ਆਡਿਟ ਕਰ ਸਕਦੀ ਹੈ ਕਿ ਇਹ ਸੁਰੱਖਿਅਤ ਹੈ, ਤਾਂ ਉਹ ਉਸੇ ਪਹੁੰਚ ਦੀ ਵਰਤੋਂ ਇਹ ਨਿਗਰਾਨੀ ਕਰਨ ਲਈ ਵੀ ਕਰ ਸਕਦੀ ਹੈ ਕਿ ਮਾਡਲ ਆਪਣੇ ਉਪਭੋਗਤਾਵਾਂ ਤੋਂ ਕੀ ਸਿੱਖ ਰਿਹਾ ਹੈ। ਇਹ ਇੱਕ ਅਜਿਹਾ ਵਪਾਰ ਹੈ ਜਿਸ ਬਾਰੇ ਜਨਤਕ ਮੰਚਾਂ ਵਿੱਚ ਘੱਟ ਹੀ ਚਰਚਾ ਕੀਤੀ ਜਾਂਦੀ ਹੈ।
ਸਾਨੂੰ ਨਵੀਨਤਾ ਦੀ ਲੁਕਵੀਂ ਲਾਗਤ ‘ਤੇ ਵੀ ਵਿਚਾਰ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ। ਜੇਕਰ ਹਰ ਨਵੇਂ ਫੀਚਰ ਨੂੰ ਇੱਕ ਲੰਬੀ ਮਨਜ਼ੂਰੀ ਪ੍ਰਕਿਰਿਆ ਵਿੱਚੋਂ ਲੰਘਣਾ ਪੈਂਦਾ ਹੈ, ਤਾਂ ਕੀ ਅਸੀਂ ਉਨ੍ਹਾਂ ਸਫਲਤਾਵਾਂ ਤੋਂ ਖੁੰਝ ਜਾਵਾਂਗੇ ਜੋ ਦਵਾਈ ਵਿੱਚ ਜਾਨਾਂ ਬਚਾ ਸਕਦੀਆਂ ਹਨ ਜਾਂ ਗੁੰਝਲਦਾਰ ਜਲਵਾਯੂ ਮੁੱਦਿਆਂ ਨੂੰ ਹੱਲ ਕਰ ਸਕਦੀਆਂ ਹਨ? ਨਿਯਮਾਂ ਦੀ ਰਗੜ ਇੱਕ ਅਸਲ ਲਾਗਤ ਹੈ। ਸਾਨੂੰ ਇਹ ਜਾਣਨ ਦੀ ਲੋੜ ਹੈ ਕਿ ਕੀ ਜੋ ਸੁਰੱਖਿਆ ਅਸੀਂ ਪ੍ਰਾਪਤ ਕਰਦੇ ਹਾਂ ਉਹ ਉਸ ਤਰੱਕੀ ਦੇ ਬਰਾਬਰ ਹੈ ਜੋ ਅਸੀਂ ਗੁਆ ਦਿੰਦੇ ਹਾਂ। ਲਾਗੂਕਰਨ ਦਾ ਮੁੱਦਾ ਵੀ ਹੈ। ਤੁਸੀਂ ਇੱਕ ਅਜਿਹੇ ਮਾਡਲ ਨੂੰ ਕਿਵੇਂ ਨਿਯੰਤ੍ਰਿਤ ਕਰਦੇ ਹੋ ਜੋ ਇੱਕ ਵਿਕੇਂਦਰੀਕ੍ਰਿਤ ਨੈਟਵਰਕ ‘ਤੇ ਜਾਂ ਕਿਸੇ ਅਜਿਹੇ ਦੇਸ਼ ਵਿੱਚ ਹੋਸਟ ਕੀਤਾ ਗਿਆ ਹੈ ਜੋ ਅੰਤਰਰਾਸ਼ਟਰੀ ਨਿਯਮਾਂ ਨੂੰ ਨਜ਼ਰਅੰਦਾਜ਼ ਕਰਦਾ ਹੈ? ਨਿਯਮ ਸਿਰਫ਼ ਉਨ੍ਹਾਂ ਕੰਪਨੀਆਂ ‘ਤੇ ਲਾਗੂ ਹੋ ਸਕਦੇ ਹਨ ਜੋ ਉਨ੍ਹਾਂ ਦੀ ਪਾਲਣਾ ਕਰਨ ਦੀ ਚੋਣ ਕਰਦੀਆਂ ਹਨ, ਜਿਸ ਨਾਲ ਸਭ ਤੋਂ ਖਤਰਨਾਕ ਅਦਾਕਾਰ ਬਿਨਾਂ ਕਿਸੇ ਨਿਗਰਾਨੀ ਦੇ ਕੰਮ ਕਰਨ ਲਈ ਸੁਤੰਤਰ ਹੋ ਜਾਂਦੇ ਹਨ। ਇਹ ਸੁਰੱਖਿਆ ਦੀ ਇੱਕ ਝੂਠੀ ਭਾਵਨਾ ਪੈਦਾ ਕਰਦਾ ਹੈ। ਅਸੀਂ ਕਾਨੂੰਨ ਮੰਨਣ ਵਾਲੇ ਨਾਗਰਿਕਾਂ ਦੇ ਦੁਆਲੇ ਇੱਕ ਵਾੜ ਬਣਾ ਰਹੇ ਹਾਂ ਜਦੋਂ ਕਿ ਬਾਕੀ ਸਾਰਿਆਂ ਲਈ ਗੇਟ ਖੁੱਲ੍ਹਾ ਰਹਿੰਦਾ ਹੈ। ਇਹ ਉਹ ਸਵਾਲ ਹਨ ਜੋ ਰੈਗੂਲੇਟਰ ਅਕਸਰ ਟਾਲ ਦਿੰਦੇ ਹਨ। ਉਹ ਪ੍ਰਣਾਲੀਗਤ ਜੋਖਮਾਂ ਨੂੰ ਨਜ਼ਰਅੰਦਾਜ਼ ਕਰਦੇ ਹੋਏ ਦਿਖਾਈ ਦੇਣ ਵਾਲੇ ਜੋਖਮਾਂ ‘ਤੇ ਧਿਆਨ ਕੇਂਦ੍ਰਤ ਕਰਦੇ ਹਨ। ਜਿਵੇਂ-ਜਿਵੇਂ ਅਸੀਂ ਅੱਗੇ ਵਧਦੇ ਹਾਂ, ਸਾਨੂੰ ਇਹ ਯਕੀਨੀ ਬਣਾਉਣਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਸਾਡੀ ਸੁਰੱਖਿਆ ਦੀ ਇੱਛਾ ਸਾਨੂੰ ਇੱਕ ਖੁੱਲੇ ਅਤੇ ਪ੍ਰਤੀਯੋਗੀ ਬਾਜ਼ਾਰ ਦੇ ਮੁੱਲ ਤੋਂ ਅੰਨ੍ਹਾ ਨਾ ਕਰ ਦੇਵੇ।
ਕੀ ਤੁਹਾਡੇ ਕੋਲ ਕੋਈ AI ਕਹਾਣੀ, ਟੂਲ, ਰੁਝਾਨ ਜਾਂ ਸਵਾਲ ਹੈ ਜੋ ਤੁਹਾਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਸਾਨੂੰ ਕਵਰ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ? ਸਾਨੂੰ ਆਪਣਾ ਲੇਖ ਦਾ ਵਿਚਾਰ ਭੇਜੋ — ਅਸੀਂ ਇਸਨੂੰ ਸੁਣਨਾ ਪਸੰਦ ਕਰਾਂਗੇ।ਪਾਰਦਰਸ਼ਤਾ ਦਾ ਤਕਨੀਕੀ ਟੋਲ
ਪਾਵਰ ਯੂਜ਼ਰਾਂ ਅਤੇ ਡਿਵੈਲਪਰਾਂ ਲਈ, ਨਵੇਂ ਨਿਯਮ ਖਾਸ ਤਕਨੀਕੀ ਰੁਕਾਵਟਾਂ ਵਿੱਚ ਅਨੁਵਾਦ ਕਰਦੇ ਹਨ। ਸਭ ਤੋਂ ਮਹੱਤਵਪੂਰਨ ਮੈਟ੍ਰਿਕਸ ਵਿੱਚੋਂ ਇੱਕ ਕੰਪਿਊਟ ਥ੍ਰੈਸ਼ਹੋਲਡ ਹੈ। ਅਮਰੀਕੀ ਕਾਰਜਕਾਰੀ ਆਦੇਸ਼ 10 ਦੀ ਪਾਵਰ 26 ਫਲੋਟਿੰਗ ਪੁਆਇੰਟ ਓਪਰੇਸ਼ਨਾਂ ‘ਤੇ ਇੱਕ ਬਾਰ ਨਿਰਧਾਰਤ ਕਰਦਾ ਹੈ। ਇਸ ਤੋਂ ਵੱਧ ਪਾਵਰ ਨਾਲ ਸਿਖਲਾਈ ਪ੍ਰਾਪਤ ਕਿਸੇ ਵੀ ਮਾਡਲ ਦੀ ਰਿਪੋਰਟ ਸਰਕਾਰ ਨੂੰ ਕੀਤੀ ਜਾਣੀ ਚਾਹੀਦੀ ਹੈ। ਇਹ ਡਿਵੈਲਪਰਾਂ ਨੂੰ ਉਨ੍ਹਾਂ ਦੇ ਹਾਰਡਵੇਅਰ ਦੀ ਵਰਤੋਂ ਅਤੇ ਸਿਖਲਾਈ ਦੇ ਰਨ ਦੇ ਵਿਸਤ੍ਰਿਤ ਲੌਗ ਰੱਖਣ ਲਈ ਮਜਬੂਰ ਕਰਦਾ ਹੈ। API ਸੀਮਾਵਾਂ ਵੀ ਨਿਯਮਾਂ ਲਈ ਇੱਕ ਸਾਧਨ ਬਣ ਰਹੀਆਂ ਹਨ। ਗਲਤ ਜਾਣਕਾਰੀ ਦੇ ਪੁੰਜ ਉਤਪਾਦਨ ਨੂੰ ਰੋਕਣ ਲਈ, ਕੁਝ ਖੇਤਰ ਇਸ ਗੱਲ ‘ਤੇ ਸੀਮਾਵਾਂ ‘ਤੇ ਵਿਚਾਰ ਕਰ ਰਹੇ ਹਨ ਕਿ ਇੱਕ ਉਪਭੋਗਤਾ ਇੱਕ ਜਨਰੇਟਿਵ ਮਾਡਲ ਨੂੰ ਕਿੰਨੀਆਂ ਬੇਨਤੀਆਂ ਕਰ ਸਕਦਾ ਹੈ। ਇਹ ਪ੍ਰਭਾਵਿਤ ਕਰਦਾ ਹੈ ਕਿ ਡਿਵੈਲਪਰ ਉਨ੍ਹਾਂ ਮਾਡਲਾਂ ‘ਤੇ ਨਿਰਭਰ ਐਪਲੀਕੇਸ਼ਨਾਂ ਨੂੰ ਕਿਵੇਂ ਬਣਾਉਂਦੇ ਹਨ। ਉਨ੍ਹਾਂ ਨੂੰ ਹੁਣ ਆਪਣੇ ਕੋਡ ਅਤੇ ਆਪਣੇ ਕਾਰੋਬਾਰੀ ਮਾਡਲਾਂ ਵਿੱਚ ਇਨ੍ਹਾਂ ਸੀਮਾਵਾਂ ਲਈ ਖਾਤਾ ਬਣਾਉਣਾ ਚਾਹੀਦਾ ਹੈ। ਸਥਾਨਕ ਸਟੋਰੇਜ ਇੱਕ ਹੋਰ ਵੱਡਾ ਕਾਰਕ ਹੈ। ਕਾਨੂੰਨ ਅਕਸਰ ਮੰਗ ਕਰਦੇ ਹਨ ਕਿ ਨਾਗਰਿਕਾਂ ਬਾਰੇ ਡੇਟਾ ਕੁਝ ਭੂਗੋਲਿਕ ਸੀਮਾਵਾਂ ਦੇ ਅੰਦਰ ਰਹੇ। ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਕੰਪਨੀਆਂ ਹਰ ਜਗ੍ਹਾ ਤੋਂ ਡੇਟਾ ਨੂੰ ਪ੍ਰੋਸੈਸ ਕਰਨ ਲਈ ਸਿਰਫ਼ ਇੱਕ ਕੇਂਦਰੀ ਕਲਾਉਡ ਦੀ ਵਰਤੋਂ ਨਹੀਂ ਕਰ ਸਕਦੀਆਂ। ਉਨ੍ਹਾਂ ਨੂੰ ਸਥਾਨਕ ਡੇਟਾ ਸੈਂਟਰ ਬਣਾਉਣ ਅਤੇ ਬਣਾਈ ਰੱਖਣੇ ਚਾਹੀਦੇ ਹਨ। ਤਕਨੀਕੀ ਲੋੜਾਂ ਵਿੱਚ ਸ਼ਾਮਲ ਹਨ:
- AI ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੀ ਸਮੱਗਰੀ ਦੀ ਪਛਾਣ ਕਰਨ ਲਈ API ਪੱਧਰ ‘ਤੇ ਲਾਜ਼ਮੀ ਵਾਟਰਮਾਰਕਿੰਗ।
- ਡੇਟਾ ਰੈਜ਼ੀਡੈਂਸੀ ਲੋੜਾਂ ਜੋ ਸਥਾਨਕ ਪ੍ਰੋਸੈਸਿੰਗ ਅਤੇ ਸਟੋਰੇਜ ਨੂੰ ਮਜਬੂਰ ਕਰਦੀਆਂ ਹਨ।
- ਕਿਸੇ ਵੀ ਮਾਡਲ ਸਿਖਲਾਈ ਲਈ ਕੰਪਿਊਟ ਲੌਗਿੰਗ ਜੋ 10 ਦੀ ਪਾਵਰ 26 ਫਲੌਪਸ ਥ੍ਰੈਸ਼ਹੋਲਡ ਤੋਂ ਵੱਧ ਹੈ।
- ਵਿਆਖਿਆਯੋਗਤਾ ਪਰਤਾਂ ਜੋ ਮਾਡਲ ਵਜ਼ਨ ਅਤੇ ਫੈਸਲੇ ਦੇ ਮਾਰਗਾਂ ਦੇ ਮਨੁੱਖੀ ਆਡਿਟ ਦੀ ਆਗਿਆ ਦਿੰਦੀਆਂ ਹਨ।
ਏਕੀਕਰਣ ਵਰਕਫਲੋ ਵੀ ਬਦਲ ਰਹੇ ਹਨ। ਡਿਵੈਲਪਰਾਂ ਨੂੰ ਹੁਣ ਪਾਈਪਲਾਈਨ ਦੇ ਹਰ ਪੜਾਅ ‘ਤੇ ਸੁਰੱਖਿਆ ਜਾਂਚਾਂ ਬਣਾਉਣੀਆਂ ਚਾਹੀਦੀਆਂ ਹਨ। ਜੇਕਰ ਤੁਸੀਂ ਇੱਕ ਅਜਿਹਾ ਟੂਲ ਬਣਾ ਰਹੇ ਹੋ ਜੋ ਤੀਜੀ-ਧਿਰ ਦੇ API ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ, ਤਾਂ ਤੁਸੀਂ ਹੁਣ ਜ਼ਿੰਮੇਵਾਰ ਹੋ ਕਿ ਉਹ API ਡੇਟਾ ਨੂੰ ਕਿਵੇਂ ਸੰਭਾਲਦਾ ਹੈ। ਤੁਹਾਨੂੰ ਇਹ ਯਕੀਨੀ ਬਣਾਉਣਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਤੁਹਾਡਾ ਏਕੀਕਰਣ ਪ੍ਰਦਾਤਾ ਦੁਆਰਾ ਨਿਰਧਾਰਤ ਸੁਰੱਖਿਆ ਫਿਲਟਰਾਂ ਨੂੰ ਬਾਈਪਾਸ ਨਾ ਕਰੇ। ਕਾਨੂੰਨ ਦਾ ਗੀਕ ਸੈਕਸ਼ਨ ਉਹ ਹੈ ਜਿੱਥੇ ਅਸਲ ਲੜਾਈਆਂ ਲੜੀਆਂ ਜਾਂਦੀਆਂ ਹਨ। ਇਹ ਲੇਟੈਂਸੀ, ਡੇਟਾ ਰੈਜ਼ੀਡੈਂਸੀ, ਅਤੇ ਮਾਡਲ ਵਜ਼ਨ ਦੇ ਗਣਿਤ ਬਾਰੇ ਹੈ। ਇਹ ਉਹ ਵੇਰਵੇ ਹਨ ਜੋ ਇਹ ਨਿਰਧਾਰਤ ਕਰਦੇ ਹਨ ਕਿ ਕੀ ਕੋਈ ਉਤਪਾਦ ਵਿਵਹਾਰਕ ਹੈ ਜਾਂ ਕੀ ਇਹ ਆਪਣੀ ਪਾਲਣਾ ਦੀਆਂ ਲੋੜਾਂ ਦੇ ਭਾਰ ਹੇਠ ਦੱਬ ਜਾਵੇਗਾ। ਤੁਸੀਂ ਤਕਨੀਕੀ ਨੀਤੀ ਬਾਰੇ ਨਵੀਨਤਮ ਖਬਰਾਂ ਦੀਆਂ ਰਿਪੋਰਟਾਂ ਵਿੱਚ ਇਨ੍ਹਾਂ ਤਕਨੀਕੀ ਤਬਦੀਲੀਆਂ ਬਾਰੇ ਹੋਰ ਵੇਰਵੇ ਲੱਭ ਸਕਦੇ ਹੋ। ਉਨ੍ਹਾਂ ਲਈ ਜੋ ਇਨ੍ਹਾਂ ਤਬਦੀਲੀਆਂ ਤੋਂ ਅੱਗੇ ਰਹਿਣਾ ਚਾਹੁੰਦੇ ਹਨ, AI ਨਿਯਮਾਂ ਵਿੱਚ ਨਵੀਨਤਮ ਵਿਕਾਸ ਦਾ ਪਾਲਣ ਕਰਨਾ ਜ਼ਰੂਰੀ ਹੈ। ਇਨ੍ਹਾਂ ਨਿਯਮਾਂ ਦੀ ਗੁੰਝਲਤਾ ਦਾ ਮਤਲਬ ਹੈ ਕਿ ਡਿਵੈਲਪਰ ਦੀ ਭੂਮਿਕਾ ਕਾਨੂੰਨ ਬਾਰੇ ਓਨੀ ਹੀ ਬਣ ਰਹੀ ਹੈ ਜਿੰਨੀ ਇਹ ਕੋਡ ਬਾਰੇ ਹੈ।
ਅਧੂਰਾ ਕੋਡ
AI ਨੂੰ ਕੰਟਰੋਲ ਕਰਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਇੱਕ ਚੱਲ ਰਿਹਾ ਕੰਮ ਹੈ। ਅਸੀਂ ਕੁੱਲ ਆਜ਼ਾਦੀ ਦੇ ਦੌਰ ਤੋਂ ਪ੍ਰਬੰਧਿਤ ਵਿਕਾਸ ਦੇ ਦੌਰ ਵੱਲ ਵਧ ਰਹੇ ਹਾਂ। ਅੱਜ ਲਿਖੇ ਗਏ ਨਿਯਮ ਅਗਲੇ ਦਹਾਕੇ ਦੀ ਟੈਕਨਾਲੋਜੀ ਨੂੰ ਆਕਾਰ ਦੇਣਗੇ। ਹਾਲਾਂਕਿ, ਸਾਫਟਵੇਅਰ ਦੀ ਗਤੀ ਹਮੇਸ਼ਾ ਕਾਨੂੰਨ ਦੀ ਗਤੀ ਨੂੰ ਪਛਾੜ ਦਿੰਦੀ ਹੈ। ਜਦੋਂ ਤੱਕ ਕੋਈ ਕਾਨੂੰਨ ਪਾਸ ਹੁੰਦਾ ਹੈ, ਟੈਕਨਾਲੋਜੀ ਅਕਸਰ ਕੁਝ ਨਵਾਂ ਕਰਨ ਲਈ ਅੱਗੇ ਵਧ ਚੁੱਕੀ ਹੁੰਦੀ ਹੈ। ਇਹ ਸਾਨੂੰ ਇੱਕ ਜੀਵੰਤ ਸਵਾਲ ਦੇ ਨਾਲ ਛੱਡਦਾ ਹੈ ਜੋ ਇਸ ਵਿਸ਼ੇ ਨੂੰ ਵਿਕਸਤ ਕਰਦਾ ਰਹੇਗਾ: ਕੀ ਇੱਕ ਲੋਕਤੰਤਰੀ ਪ੍ਰਕਿਰਿਆ ਕਦੇ ਵੀ ਇੱਕ ਅਜਿਹੀ ਬੁੱਧੀ ਨੂੰ ਨਿਯੰਤ੍ਰਿਤ ਕਰਨ ਲਈ ਕਾਫ਼ੀ ਤੇਜ਼ ਹੋ ਸਕਦੀ ਹੈ ਜੋ ਆਪਣੇ ਆਪ ਨੂੰ ਦੁਬਾਰਾ ਲਿਖਦੀ ਹੈ? ਫਿਲਹਾਲ, ਫੋਕਸ ਪਾਰਦਰਸ਼ਤਾ ਅਤੇ ਜਵਾਬਦੇਹੀ ‘ਤੇ ਹੈ। ਅਸੀਂ ਇਹ ਯਕੀਨੀ ਬਣਾਉਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰ ਰਹੇ ਹਾਂ ਕਿ ਇਨਸਾਨ ਉਨ੍ਹਾਂ ਮਸ਼ੀਨਾਂ ਦੇ ਇੰਚਾਰਜ ਰਹਿਣ ਜੋ ਉਨ੍ਹਾਂ ਨੇ ਬਣਾਈਆਂ ਹਨ। ਕੀ ਇਹ ਨਿਯਮ AI ਨੂੰ ਸੁਰੱਖਿਅਤ ਬਣਾਉਣਗੇ ਜਾਂ ਸਿਰਫ਼ ਵਧੇਰੇ ਗੁੰਝਲਦਾਰ, ਇਹ ਦੇਖਣਾ ਬਾਕੀ ਹੈ। ਸਿਰਫ ਨਿਸ਼ਚਿਤਤਾ ਇਹ ਹੈ ਕਿ ਗੈਰ-ਨਿਯੰਤ੍ਰਿਤ ਐਲਗੋਰਿਦਮ ਦਾ ਯੁੱਗ ਖਤਮ ਹੋ ਗਿਆ ਹੈ। ਇਹ 2024 ਅਤੇ ਇਸ ਤੋਂ ਬਾਅਦ ਦੀ ਹਕੀਕਤ ਹੈ।
ملاحظة المحرر: لقد أنشأنا هذا الموقع كمركز إخباري وإرشادي متعدد اللغات للذكاء الاصطناعي للأشخاص الذين ليسوا خبراء في الكمبيوتر، ولكنهم ما زالوا يرغبون في فهم الذكاء الاصطناعي، واستخدامه بثقة أكبر، ومتابعة المستقبل الذي بدأ بالفعل في الوصول.
ਕੋਈ ਗਲਤੀ ਮਿਲੀ ਜਾਂ ਕੁਝ ਠੀਕ ਕਰਨ ਦੀ ਲੋੜ ਹੈ? ਸਾਨੂੰ ਦੱਸੋ।