ਸਰਕਾਰਾਂ AI ਨੂੰ ਕੰਟਰੋਲ ਕਰਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਿਵੇਂ ਕਰ ਰਹੀਆਂ ਹਨ
ਮਸ਼ੀਨ ਦੇ ਨਵੇਂ ਨਿਯਮ
ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ (AI) ਦੇ ਜੰਗਲੀ ਯੁੱਗ ਦਾ ਅੰਤ ਹੋ ਰਿਹਾ ਹੈ। ਸਰਕਾਰਾਂ ਹੁਣ ਸਿਰਫ਼ ਤਮਾਸ਼ਾ ਨਹੀਂ ਦੇਖ ਰਹੀਆਂ, ਸਗੋਂ ਉਹ ਨਿਯਮਾਂ ਦੀਆਂ ਕਿਤਾਬਾਂ ਲਿਖ ਰਹੀਆਂ ਹਨ ਜੋ ਇਹ ਤੈਅ ਕਰਨਗੀਆਂ ਕਿ ਕੋਡ ਕਿਵੇਂ ਲਿਖਿਆ ਜਾਵੇਗਾ ਅਤੇ ਇਸਨੂੰ ਕਿੱਥੇ ਵਰਤਿਆ ਜਾ ਸਕਦਾ ਹੈ। ਇਹ ਸਿਰਫ਼ ਨੈਤਿਕਤਾ ਜਾਂ ਅਸਪਸ਼ਟ ਸਿਧਾਂਤਾਂ ਬਾਰੇ ਨਹੀਂ ਹੈ, ਇਹ ਸਖ਼ਤ ਕਾਨੂੰਨ ਅਤੇ ਭਾਰੀ ਜੁਰਮਾਨਿਆਂ ਬਾਰੇ ਹੈ। ਯੂਰਪੀਅਨ ਯੂਨੀਅਨ ਨੇ ਆਪਣੇ AI Act ਨਾਲ ਰਾਹ ਪੱਧਰਾ ਕੀਤਾ ਹੈ। ਅਮਰੀਕਾ ਨੇ ਵੀ ਇੱਕ ਵਿਆਪਕ ਕਾਰਜਕਾਰੀ ਆਦੇਸ਼ ਨਾਲ ਇਸਦਾ ਪਾਲਣ ਕੀਤਾ ਹੈ। ਇਹ ਕਦਮ ਦੁਨੀਆ ਦੀ ਹਰ ਟੈਕ ਕੰਪਨੀ ਲਈ ਗਣਿਤ ਬਦਲ ਦਿੰਦੇ ਹਨ। ਜੇਕਰ ਤੁਸੀਂ ਕੋਈ ਅਜਿਹਾ ਮਾਡਲ ਬਣਾਉਂਦੇ ਹੋ ਜੋ ਇੱਕ ਖਾਸ ਪਾਵਰ ਸੀਮਾ ਤੋਂ ਵੱਧ ਜਾਂਦਾ ਹੈ, ਤਾਂ ਹੁਣ ਤੁਹਾਡੇ ‘ਤੇ ਨਜ਼ਰ ਰਹੇਗੀ। ਜਨਤਕ ਹੋਣ ਤੋਂ ਪਹਿਲਾਂ ਤੁਹਾਨੂੰ ਇਹ ਸਾਬਤ ਕਰਨਾ ਹੋਵੇਗਾ ਕਿ ਇਹ ਸੁਰੱਖਿਅਤ ਹੈ। ਇਹ ਬਦਲਾਅ ਸਵੈ-ਇੱਛਤ ਸੁਰੱਖਿਆ ਵਾਅਦਿਆਂ ਤੋਂ ਲਾਜ਼ਮੀ ਨਿਗਰਾਨੀ ਵੱਲ ਤਬਦੀਲੀ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ। ਆਮ ਉਪਭੋਗਤਾ ਲਈ, ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਜੋ ਟੂਲ ਤੁਸੀਂ ਕੱਲ੍ਹ ਵਰਤੋਗੇ, ਉਹ ਅੱਜ ਵਾਲਿਆਂ ਨਾਲੋਂ ਵੱਖਰੇ ਹੋ ਸਕਦੇ ਹਨ। ਕੁਝ ਫੀਚਰ ਤੁਹਾਡੇ ਦੇਸ਼ ਵਿੱਚ ਬਲਾਕ ਹੋ ਸਕਦੇ ਹਨ। ਹੋਰ ਟੂਲ ਇਸ ਬਾਰੇ ਵਧੇਰੇ ਪਾਰਦਰਸ਼ੀ ਹੋ ਸਕਦੇ ਹਨ ਕਿ ਉਹ ਤੁਹਾਡੇ ਡੇਟਾ ਦੀ ਵਰਤੋਂ ਕਿਵੇਂ ਕਰਦੇ ਹਨ। ਟੀਚਾ ਪ੍ਰਗਤੀ ਅਤੇ ਸੁਰੱਖਿਆ ਵਿੱਚ ਸੰਤੁਲਨ ਬਣਾਉਣਾ ਹੈ, ਪਰ ਇਹ ਰਸਤਾ ਰੁਕਾਵਟਾਂ ਨਾਲ ਭਰਿਆ ਹੋਇਆ ਹੈ।
ਨੈਤਿਕਤਾ ਤੋਂ ਲਾਗੂਕਰਨ ਤੱਕ
ਨਵੇਂ ਨਿਯਮਾਂ ਨੂੰ ਸਮਝਣ ਲਈ, ਤੁਹਾਨੂੰ ਜੋਖਮ ਦੀਆਂ ਸ਼੍ਰੇਣੀਆਂ ਨੂੰ ਦੇਖਣਾ ਹੋਵੇਗਾ। ਜ਼ਿਆਦਾਤਰ ਸਰਕਾਰਾਂ ‘ਇੱਕੋ ਨਿਯਮ ਸਾਰਿਆਂ ਲਈ’ ਵਾਲੀ ਪਹੁੰਚ ਤੋਂ ਦੂਰ ਹੋ ਰਹੀਆਂ ਹਨ। ਇਸ ਦੀ ਬਜਾਏ, ਉਹ ਸੰਭਾਵੀ ਨੁਕਸਾਨ ਦੇ ਆਧਾਰ ‘ਤੇ ਸਿਸਟਮਾਂ ਨੂੰ ਗ੍ਰੇਡ ਦੇ ਰਹੀਆਂ ਹਨ। ਇਹ ਇੱਕ ਸਿੱਧਾ ਕਾਰਜਸ਼ੀਲ ਬਦਲਾਅ ਹੈ। ਕੰਪਨੀਆਂ ਹੁਣ ਸਿਰਫ਼ ਇੱਕ ਪ੍ਰੋਡਕਟ ਰਿਲੀਜ਼ ਕਰਕੇ ਚੰਗੇ ਦੀ ਉਮੀਦ ਨਹੀਂ ਕਰ ਸਕਦੀਆਂ। ਉਨ੍ਹਾਂ ਨੂੰ ਉਪਭੋਗਤਾ ਤੱਕ ਪਹੁੰਚਣ ਤੋਂ ਪਹਿਲਾਂ ਆਪਣੀ ਟੈਕਨਾਲੋਜੀ ਨੂੰ ਸ਼੍ਰੇਣੀਬੱਧ ਕਰਨਾ ਹੋਵੇਗਾ। ਇਹ ਵਰਗੀਕਰਨ ਸਰਕਾਰ ਦੁਆਰਾ ਲਾਗੂ ਕੀਤੀ ਜਾਣ ਵਾਲੀ ਜਾਂਚ ਦੇ ਪੱਧਰ ਨੂੰ ਨਿਰਧਾਰਤ ਕਰਦਾ ਹੈ। ਇਹ ਕਾਨੂੰਨੀ ਜ਼ਿੰਮੇਵਾਰੀ ਦੇ ਪੱਧਰ ਨੂੰ ਵੀ ਨਿਰਧਾਰਤ ਕਰਦਾ ਹੈ ਜੇਕਰ ਕੁਝ ਗਲਤ ਹੋ ਜਾਂਦਾ ਹੈ। ਫੋਕਸ ਇਸ ਗੱਲ ਤੋਂ ਹਟ ਗਿਆ ਹੈ ਕਿ AI ਕੀ ਹੈ, ਇਸ ਗੱਲ ‘ਤੇ ਕਿ AI ਕੀ ਕਰਦਾ ਹੈ। ਜੇਕਰ ਕੋਈ ਸਿਸਟਮ ਲੋਕਾਂ ਬਾਰੇ ਫੈਸਲੇ ਲੈਂਦਾ ਹੈ, ਤਾਂ ਉਸ ਨਾਲ ਬਿੱਲੀਆਂ ਦੀਆਂ ਤਸਵੀਰਾਂ ਬਣਾਉਣ ਵਾਲੇ ਸਿਸਟਮ ਨਾਲੋਂ ਕਿਤੇ ਜ਼ਿਆਦਾ ਸ਼ੱਕ ਨਾਲ ਪੇਸ਼ ਆਇਆ ਜਾਂਦਾ ਹੈ।
ਸਭ ਤੋਂ ਸਖ਼ਤ ਨਿਯਮ ਉਨ੍ਹਾਂ ਸਿਸਟਮਾਂ ‘ਤੇ ਲਾਗੂ ਹੁੰਦੇ ਹਨ ਜਿਨ੍ਹਾਂ ਨੂੰ ਅਸਵੀਕਾਰਨਯੋਗ ਜੋਖਮ ਮੰਨਿਆ ਜਾਂਦਾ ਹੈ। ਇਹ ਸਿਰਫ਼ ਨਿਰਾਸ਼ਾਜਨਕ ਨਹੀਂ ਹਨ, ਇਹ ਪੂਰੀ ਤਰ੍ਹਾਂ ਬੈਨ ਹਨ। ਇਹ ਡਿਵੈਲਪਰਾਂ ਲਈ ਇੱਕ ਸਪੱਸ਼ਟ ਸੀਮਾ ਬਣਾਉਂਦਾ ਹੈ। ਉਹ ਜਾਣਦੇ ਹਨ ਕਿ ਉਹ ਕਿਹੜੀਆਂ ਲਾਈਨਾਂ ਪਾਰ ਨਹੀਂ ਕਰ ਸਕਦੇ। ਬਾਕੀ ਸਭ ਕੁਝ ਲਈ, ਨਿਯਮਾਂ ਨੂੰ ਦਸਤਾਵੇਜ਼ੀਕਰਨ ਦੇ ਇੱਕ ਨਵੇਂ ਪੱਧਰ ਦੀ ਲੋੜ ਹੈ। ਕੰਪਨੀਆਂ ਨੂੰ ਇਸ ਗੱਲ ਦਾ ਵਿਸਤ੍ਰਿਤ ਰਿਕਾਰਡ ਰੱਖਣਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਉਨ੍ਹਾਂ ਦੇ ਮਾਡਲ ਕਿਵੇਂ ਸਿਖਲਾਈ ਪ੍ਰਾਪਤ ਸਨ। ਉਨ੍ਹਾਂ ਨੂੰ ਇਹ ਦੱਸਣ ਦੇ ਯੋਗ ਵੀ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਮਾਡਲ ਆਪਣੇ ਸਿੱਟਿਆਂ ਤੱਕ ਕਿਵੇਂ ਪਹੁੰਚਦਾ ਹੈ। ਇਹ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਤਕਨੀਕੀ ਚੁਣੌਤੀ ਹੈ ਕਿਉਂਕਿ ਬਹੁਤ ਸਾਰੇ ਆਧੁਨਿਕ ਮਾਡਲ ਅਸਲ ਵਿੱਚ ਬਲੈਕ ਬਾਕਸ ਹਨ। ਉਨ੍ਹਾਂ ਨੂੰ ਸਮਝਣ ਯੋਗ ਬਣਾਉਣ ਲਈ ਇਹ ਬਦਲਣਾ ਜ਼ਰੂਰੀ ਹੈ ਕਿ ਉਹ ਕਿਵੇਂ ਡਿਜ਼ਾਈਨ ਕੀਤੇ ਗਏ ਹਨ। ਨਿਯਮ ਇਹ ਵੀ ਮੰਗ ਕਰਦੇ ਹਨ ਕਿ ਸਿਖਲਾਈ ਲਈ ਵਰਤਿਆ ਜਾਣ ਵਾਲਾ ਡੇਟਾ ਸਾਫ਼ ਅਤੇ ਪੱਖਪਾਤ ਤੋਂ ਮੁਕਤ ਹੋਵੇ। ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਡੇਟਾ ਇਕੱਠਾ ਕਰਨ ਦੀ ਪ੍ਰਕਿਰਿਆ ਹੁਣ ਕਾਨੂੰਨੀ ਆਡਿਟ ਦੇ ਅਧੀਨ ਹੈ। ਹੇਠ ਲਿਖੀਆਂ ਸ਼੍ਰੇਣੀਆਂ ਮੌਜੂਦਾ ਰੈਗੂਲੇਟਰੀ ਪਹੁੰਚ ਨੂੰ ਪਰਿਭਾਸ਼ਿਤ ਕਰਦੀਆਂ ਹਨ:
- ਪ੍ਰਤੀਬੰਧਿਤ ਸਿਸਟਮ ਜੋ ਵਿਵਹਾਰ ਨੂੰ ਹੇਰਾਫੇਰੀ ਕਰਨ ਲਈ ਸੋਸ਼ਲ ਸਕੋਰਿੰਗ ਜਾਂ ਧੋਖਾਧੜੀ ਵਾਲੀਆਂ ਤਕਨੀਕਾਂ ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹਨ।
- ਉੱਚ ਜੋਖਮ ਵਾਲੇ ਸਿਸਟਮ ਜੋ ਨਾਜ਼ੁਕ ਬੁਨਿਆਦੀ ਢਾਂਚੇ, ਭਰਤੀ ਅਤੇ ਕਾਨੂੰਨ ਲਾਗੂ ਕਰਨ ਵਿੱਚ ਵਰਤੇ ਜਾਂਦੇ ਹਨ ਜਿਨ੍ਹਾਂ ਲਈ ਸਖ਼ਤ ਆਡਿਟ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ।
- ਸੀਮਤ ਜੋਖਮ ਵਾਲੇ ਸਿਸਟਮ ਜਿਵੇਂ ਕਿ ਚੈਟਬੋਟਸ ਜਿਨ੍ਹਾਂ ਨੂੰ ਇਹ ਖੁਲਾਸਾ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਉਹ ਇਨਸਾਨ ਨਹੀਂ ਹਨ।
- ਘੱਟੋ-ਘੱਟ ਜੋਖਮ ਵਾਲੇ ਸਿਸਟਮ ਜਿਵੇਂ ਕਿ AI ਸਮਰਥਿਤ ਵੀਡੀਓ ਗੇਮਾਂ ਜਿਨ੍ਹਾਂ ਨੂੰ ਘੱਟ ਪਾਬੰਦੀਆਂ ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਪੈਂਦਾ ਹੈ।
ਇਹ ਢਾਂਚਾ ਲਚਕਦਾਰ ਹੋਣ ਲਈ ਤਿਆਰ ਕੀਤਾ ਗਿਆ ਹੈ। ਜਿਵੇਂ-ਜਿਵੇਂ ਟੈਕਨਾਲੋਜੀ ਬਦਲਦੀ ਹੈ, ਉੱਚ ਜੋਖਮ ਵਾਲੀਆਂ ਐਪਲੀਕੇਸ਼ਨਾਂ ਦੀ ਸੂਚੀ ਵਧ ਸਕਦੀ ਹੈ। ਇਹ ਕਾਨੂੰਨ ਨੂੰ ਪ੍ਰਸੰਗਿਕ ਰੱਖਦਾ ਹੈ ਭਾਵੇਂ ਸਾਫਟਵੇਅਰ ਵਿਕਸਿਤ ਹੋ ਰਿਹਾ ਹੋਵੇ। ਹਾਲਾਂਕਿ, ਇਹ ਕਾਰੋਬਾਰਾਂ ਲਈ ਸਥਾਈ ਅਨਿਸ਼ਚਿਤਤਾ ਦੀ ਸਥਿਤੀ ਵੀ ਪੈਦਾ ਕਰਦਾ ਹੈ। ਉਨ੍ਹਾਂ ਨੂੰ ਲਗਾਤਾਰ ਇਹ ਜਾਂਚ ਕਰਨੀ ਪੈਂਦੀ ਹੈ ਕਿ ਕੀ ਉਨ੍ਹਾਂ ਦਾ ਨਵਾਂ ਫੀਚਰ ਵਧੇਰੇ ਨਿਯੰਤ੍ਰਿਤ ਸ਼੍ਰੇਣੀ ਵਿੱਚ ਤਾਂ ਨਹੀਂ ਚਲਾ ਗਿਆ। ਇਹ ਇੱਕ ਅਜਿਹੀ ਦੁਨੀਆ ਵਿੱਚ ਸਾਫਟਵੇਅਰ ਬਣਾਉਣ ਦੀ ਨਵੀਂ ਹਕੀਕਤ ਹੈ ਜੋ ਮਸ਼ੀਨ ਦੀ ਸ਼ਕਤੀ ਤੋਂ ਸਾਵਧਾਨ ਹੈ।
ਇੱਕ ਖੰਡਿਤ ਗਲੋਬਲ ਫਰੇਮਵਰਕ
ਇਨ੍ਹਾਂ ਨਿਯਮਾਂ ਦਾ ਪ੍ਰਭਾਵ ਕਿਸੇ ਇੱਕ ਦੇਸ਼ ਦੀਆਂ ਸਰਹੱਦਾਂ ਤੱਕ ਸੀਮਤ ਨਹੀਂ ਹੈ। ਅਸੀਂ *ਬ੍ਰਸੇਲਜ਼ ਇਫੈਕਟ* ਦਾ ਉਭਾਰ ਦੇਖ ਰਹੇ ਹਾਂ। ਜਦੋਂ EU ਟੈਕ ਰੈਗੂਲੇਸ਼ਨ ਲਈ ਉੱਚ ਪੱਧਰ ਨਿਰਧਾਰਤ ਕਰਦਾ ਹੈ, ਤਾਂ ਗਲੋਬਲ ਕੰਪਨੀਆਂ ਅਕਸਰ ਆਪਣੇ ਕੰਮਕਾਜ ਨੂੰ ਸਰਲ ਬਣਾਉਣ ਲਈ ਹਰ ਜਗ੍ਹਾ ਉਨ੍ਹਾਂ ਮਾਪਦੰਡਾਂ ਨੂੰ ਅਪਣਾ ਲੈਂਦੀਆਂ ਹਨ। ਵੱਖ-ਵੱਖ ਬਾਜ਼ਾਰਾਂ ਲਈ ਦਸ ਵੱਖ-ਵੱਖ ਸੰਸਕਰਣ ਬਣਾਉਣ ਨਾਲੋਂ ਇੱਕ ਅਨੁਕੂਲ ਉਤਪਾਦ ਬਣਾਉਣਾ ਸਸਤਾ ਹੈ। ਇਹ ਯੂਰਪ ਨੂੰ ਸਿਲੀਕਾਨ ਵੈਲੀ ਵਿੱਚ AI ਕਿਵੇਂ ਬਣਾਇਆ ਜਾਂਦਾ ਹੈ, ਇਸ ‘ਤੇ ਭਾਰੀ ਪ੍ਰਭਾਵ ਦਿੰਦਾ ਹੈ। ਤੁਸੀਂ ਇਹ ਦੇਖਣ ਲਈ EU AI Act ਬਾਰੇ ਹੋਰ ਪੜ੍ਹ ਸਕਦੇ ਹੋ ਕਿ ਇਹ ਮਾਪਦੰਡ ਕਿਵੇਂ ਬਣੇ ਹਨ। ਅਮਰੀਕਾ ਵਿੱਚ, ਪਹੁੰਚ ਵੱਖਰੀ ਹੈ ਪਰ ਬਰਾਬਰ ਮਹੱਤਵਪੂਰਨ ਹੈ। ਸਰਕਾਰ ਟੈਕ ਦਿੱਗਜਾਂ ਨੂੰ ਉਨ੍ਹਾਂ ਦੇ ਸੁਰੱਖਿਆ ਟੈਸਟ ਦੇ ਨਤੀਜੇ ਸਾਂਝੇ ਕਰਨ ਲਈ ਮਜਬੂਰ ਕਰਨ ਲਈ **ਡਿਫੈਂਸ ਪ੍ਰੋਡਕਸ਼ਨ ਐਕਟ** ਦੀ ਵਰਤੋਂ ਕਰ ਰਹੀ ਹੈ। ਇਹ ਸੰਕੇਤ ਦਿੰਦਾ ਹੈ ਕਿ ਅਮਰੀਕਾ ਵੱਡੇ ਪੈਮਾਨੇ ਦੇ AI ਨੂੰ ਰਾਸ਼ਟਰੀ ਸੁਰੱਖਿਆ ਦਾ ਮਾਮਲਾ ਮੰਨਦਾ ਹੈ।
ਇਸ ਦੌਰਾਨ, ਚੀਨ ਨੇ ਵਧੇਰੇ ਸਿੱਧਾ ਰਸਤਾ ਅਪਣਾਇਆ ਹੈ। ਉਨ੍ਹਾਂ ਦੇ ਨਿਯਮ ਜਨਰੇਟਿਵ AI ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੀ ਸਮੱਗਰੀ ‘ਤੇ ਕੇਂਦ੍ਰਿਤ ਹਨ। ਉਹ ਮੰਗ ਕਰਦੇ ਹਨ ਕਿ ਆਉਟਪੁੱਟ ਸਮਾਜਿਕ ਕਦਰਾਂ-ਕੀਮਤਾਂ ਨਾਲ ਮੇਲ ਖਾਂਦੇ ਹੋਣ ਅਤੇ ਰਾਜ ਦੀ ਸ਼ਕਤੀ ਨੂੰ ਕਮਜ਼ੋਰ ਨਾ ਕਰਨ। ਇਹ ਇੱਕ ਖੰਡਿਤ ਸੰਸਾਰ ਬਣਾਉਂਦਾ ਹੈ ਜਿੱਥੇ ਇੱਕੋ ਮਾਡਲ ਵੱਖ-ਵੱਖ ਤਰੀਕੇ ਨਾਲ ਵਿਵਹਾਰ ਕਰ ਸਕਦਾ ਹੈ, ਇਸ ਗੱਲ ‘ਤੇ ਨਿਰਭਰ ਕਰਦਾ ਹੈ ਕਿ ਤੁਸੀਂ ਕਿੱਥੇ ਲੌਗ ਇਨ ਕਰਦੇ ਹੋ। ਬੀਜਿੰਗ ਵਿੱਚ ਇੱਕ ਮਾਡਲ ਦੇ ਪੈਰਿਸ ਜਾਂ ਨਿਊਯਾਰਕ ਨਾਲੋਂ ਵੱਖਰੇ ਗਾਰਡਰੇਲ ਹੋਣਗੇ। ਇਹ ਖੰਡਨ ਉਨ੍ਹਾਂ ਡਿਵੈਲਪਰਾਂ ਲਈ ਸਿਰਦਰਦੀ ਪੈਦਾ ਕਰਦਾ ਹੈ ਜਿਨ੍ਹਾਂ ਨੂੰ ਹੁਣ ਵਿਰੋਧੀ ਨਿਯਮਾਂ ਦੇ ਜਾਲ ਵਿੱਚ ਕੰਮ ਕਰਨਾ ਪੈਂਦਾ ਹੈ। ਕੁਝ ਦੇਸ਼ ਵਧੇਰੇ ਖੁੱਲ੍ਹੇਪਣ ਚਾਹੁੰਦੇ ਹਨ ਜਦੋਂ ਕਿ ਦੂਸਰੇ ਬਿਰਤਾਂਤ ‘ਤੇ ਵਧੇਰੇ ਨਿਯੰਤਰਣ ਚਾਹੁੰਦੇ ਹਨ। ਗਲੋਬਲ ਦਰਸ਼ਕਾਂ ਲਈ, ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ AI ਅਨੁਭਵ ਸਥਾਨਕ ਬਣ ਰਿਹਾ ਹੈ। ਇੱਕ ਸਿੰਗਲ, ਸਰਹੱਦ ਰਹਿਤ ਇੰਟਰਨੈਟ ਦਾ ਸੁਪਨਾ ਫਿੱਕਾ ਪੈ ਰਿਹਾ ਹੈ। ਇਸਦੀ ਜਗ੍ਹਾ ਇੱਕ ਨਿਯੰਤ੍ਰਿਤ ਵਾਤਾਵਰਣ ਹੈ ਜਿੱਥੇ ਤੁਹਾਡਾ ਸਥਾਨ ਇਹ ਨਿਰਧਾਰਤ ਕਰਦਾ ਹੈ ਕਿ ਮਸ਼ੀਨ ਨੂੰ ਤੁਹਾਨੂੰ ਕੀ ਦੱਸਣ ਦੀ ਇਜਾਜ਼ਤ ਹੈ। ਇਹ 2024 ਦੀ ਨਵੀਂ ਹਕੀਕਤ ਹੈ। ਇਹ ਇੱਕ ਅਜਿਹਾ ਬਦਲਾਅ ਹੈ ਜੋ ਤਕਨੀਕੀ ਵਿਕਾਸ ਦੇ ਅਗਲੇ ਦਹਾਕੇ ਨੂੰ ਪਰਿਭਾਸ਼ਿਤ ਕਰੇਗਾ।
ਰੈਗੂਲੇਟਰੀ ਨਜ਼ਰ ਹੇਠ ਰੋਜ਼ਾਨਾ ਜੀਵਨ
ਸਾਰਾਹ ਨਾਮ ਦੀ ਇੱਕ ਪ੍ਰੋਜੈਕਟ ਮੈਨੇਜਰ ਲਈ ਇੱਕ ਆਮ ਸਵੇਰ ਦੀ ਕਲਪਨਾ ਕਰੋ। ਉਹ ਆਪਣੇ ਦਿਨ ਦੀ ਸ਼ੁਰੂਆਤ ਈਮੇਲਾਂ ਦੀ ਇੱਕ ਲੰਬੀ ਲੜੀ ਦਾ ਸਾਰ ਦੇਣ ਲਈ ਇੱਕ AI ਟੂਲ ਖੋਲ੍ਹ ਕੇ ਕਰਦੀ ਹੈ। ਨਵੇਂ ਨਿਯਮਾਂ ਦੇ ਤਹਿਤ, ਉਸਦੇ ਸਾਫਟਵੇਅਰ ਨੂੰ ਉਸਨੂੰ ਸੂਚਿਤ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਸਾਰ ਇੱਕ ਐਲਗੋਰਿਦਮ ਦੁਆਰਾ ਤਿਆਰ ਕੀਤਾ ਗਿਆ ਸੀ। ਇਸ ਨੂੰ ਇਹ ਵੀ ਯਕੀਨੀ ਬਣਾਉਣਾ ਹੋਵੇਗਾ ਕਿ ਉਸਦੀ ਕੰਪਨੀ ਦਾ ਡੇਟਾ ਉਸਦੀ ਸਹਿਮਤੀ ਤੋਂ ਬਿਨਾਂ ਪਬਲਿਕ ਮਾਡਲ ਨੂੰ ਸਿਖਲਾਈ ਦੇਣ ਲਈ ਨਹੀਂ ਵਰਤਿਆ ਜਾ ਰਿਹਾ ਹੈ। ਇਹ ਹਾਲ ਹੀ ਦੇ ਕਾਨੂੰਨਾਂ ਵਿੱਚ ਬਣਾਈ ਗਈ ਨਵੀਂ ਗੋਪਨੀਯਤਾ ਸੁਰੱਖਿਆ ਦਾ ਸਿੱਧਾ ਨਤੀਜਾ ਹੈ। ਬਾਅਦ ਵਿੱਚ, ਸਾਰਾਹ ਇੱਕ ਟੈਕ ਫਰਮ ਵਿੱਚ ਇੱਕ ਨਵੀਂ ਭੂਮਿਕਾ ਲਈ ਅਰਜ਼ੀ ਦਿੰਦੀ ਹੈ। ਫਰਮ ਇੱਕ AI ਸਕ੍ਰੀਨਿੰਗ ਟੂਲ ਦੀ ਵਰਤੋਂ ਕਰਦੀ ਹੈ। ਕਿਉਂਕਿ ਇਹ ਇੱਕ ਉੱਚ ਜੋਖਮ ਵਾਲੀ ਐਪਲੀਕੇਸ਼ਨ ਹੈ, ਕੰਪਨੀ ਨੂੰ ਪੱਖਪਾਤ ਲਈ ਟੂਲ ਦਾ ਆਡਿਟ ਕਰਨਾ ਪਿਆ ਹੈ। ਸਾਰਾਹ ਕੋਲ ਇਹ ਪੁੱਛਣ ਦਾ ਕਾਨੂੰਨੀ ਅਧਿਕਾਰ ਹੈ ਕਿ AI ਨੇ ਉਸਨੂੰ ਉਸ ਤਰ੍ਹਾਂ ਕਿਉਂ ਦਰਜਾ ਦਿੱਤਾ ਜਿਵੇਂ ਉਸਨੇ ਕੀਤਾ। ਪਹਿਲਾਂ, ਉਸਨੂੰ ਇੱਕ ਆਮ ਅਸਵੀਕਾਰ ਪ੍ਰਾਪਤ ਹੁੰਦਾ ਸੀ। ਹੁਣ, ਉਸ ਕੋਲ ਪਾਰਦਰਸ਼ਤਾ ਦਾ ਇੱਕ ਰਸਤਾ ਹੈ। ਇਹ ਇੱਕ ਠੋਸ ਉਦਾਹਰਣ ਹੈ ਕਿ ਕਿਵੇਂ ਸ਼ਾਸਨ ਕਾਰਪੋਰੇਸ਼ਨਾਂ ਅਤੇ ਵਿਅਕਤੀਆਂ ਵਿਚਕਾਰ ਸ਼ਕਤੀ ਦੇ ਗਤੀਸ਼ੀਲ ਨੂੰ ਬਦਲਦਾ ਹੈ।
ਦੁਪਹਿਰ ਨੂੰ, ਸਾਰਾਹ ਇੱਕ ਸ਼ਾਪਿੰਗ ਮਾਲ ਵਿੱਚੋਂ ਲੰਘਦੀ ਹੈ। ਕੁਝ ਸ਼ਹਿਰਾਂ ਵਿੱਚ, ਚਿਹਰੇ ਦੀ ਪਛਾਣ (facial recognition) ਉਸਦੀਆਂ ਗਤੀਵਿਧੀਆਂ ਨੂੰ ਟਰੈਕ ਕਰ ਰਹੀ ਹੋਵੇਗੀ ਤਾਂ ਜੋ ਨਿਸ਼ਾਨਾ ਬਣਾਏ ਗਏ ਵਿਗਿਆਪਨ ਦਿਖਾਏ ਜਾ ਸਕਣ। ਸਖ਼ਤ EU ਨਿਯਮਾਂ ਦੇ ਤਹਿਤ, ਇਸ ਕਿਸਮ ਦੀ ਰੀਅਲ-ਟਾਈਮ ਨਿਗਰਾਨੀ ਸੀਮਤ ਹੈ। ਮਾਲ ਕੋਲ ਇਸਦੀ ਵਰਤੋਂ ਕਰਨ ਦਾ ਇੱਕ ਖਾਸ ਕਾਨੂੰਨੀ ਕਾਰਨ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ ਅਤੇ ਸਾਰਾਹ ਨੂੰ ਸੂਚਿਤ ਕੀਤਾ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ। ਉਹ ਜੋ ਉਤਪਾਦ ਵਰਤਦੀ ਹੈ ਉਹ ਵੀ ਬਦਲ ਰਹੇ ਹਨ। OpenAI ਅਤੇ Google ਵਰਗੀਆਂ ਕੰਪਨੀਆਂ ਪਹਿਲਾਂ ਹੀ ਸਥਾਨਕ ਕਾਨੂੰਨਾਂ ਦੀ ਪਾਲਣਾ ਕਰਨ ਲਈ ਆਪਣੇ ਫੀਚਰਾਂ ਨੂੰ ਅਨੁਕੂਲ ਕਰ ਰਹੀਆਂ ਹਨ। ਤੁਸੀਂ ਦੇਖ ਸਕਦੇ ਹੋ ਕਿ ਕੁਝ ਚਿੱਤਰ ਬਣਾਉਣ ਵਾਲੇ ਟੂਲ ਤੁਹਾਡੇ ਖੇਤਰ ਵਿੱਚ ਉਪਲਬਧ ਨਹੀਂ ਹਨ ਜਾਂ ਉਨ੍ਹਾਂ ਕੋਲ ਸਖ਼ਤ ਫਿਲਟਰ ਹਨ ਜੋ ਉਨ੍ਹਾਂ ਨੂੰ ਜਨਤਕ ਹਸਤੀਆਂ ਦੇ ਯਥਾਰਥਵਾਦੀ ਚਿਹਰੇ ਬਣਾਉਣ ਤੋਂ ਰੋਕਦੇ ਹਨ। ਇਹ ਕੋਈ ਤਕਨੀਕੀ ਸੀਮਾ ਨਹੀਂ ਹੈ। ਇਹ ਇੱਕ ਕਾਨੂੰਨੀ ਹੈ। ਇਨ੍ਹਾਂ ਨਿਯਮਾਂ ਲਈ ਦਲੀਲ ਅਸਲ ਮਹਿਸੂਸ ਹੁੰਦੀ ਹੈ ਜਦੋਂ ਤੁਸੀਂ ਚੋਣਾਂ ਨੂੰ ਵਿਗਾੜਨ ਲਈ ਡੀਪਫੇਕ ਦੀ ਸੰਭਾਵਨਾ ਜਾਂ ਲੋਕਾਂ ਨੂੰ ਰਿਹਾਇਸ਼ ਤੋਂ ਇਨਕਾਰ ਕਰਨ ਲਈ ਪੱਖਪਾਤੀ ਐਲਗੋਰਿਦਮ ਬਾਰੇ ਵਿਚਾਰ ਕਰਦੇ ਹੋ। ਗਾਰਡਰੇਲ ਲਗਾ ਕੇ, ਸਰਕਾਰਾਂ ਇਨ੍ਹਾਂ ਨੁਕਸਾਨਾਂ ਨੂੰ ਵਾਪਰਨ ਤੋਂ ਪਹਿਲਾਂ ਰੋਕਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰ ਰਹੀਆਂ ਹਨ। ਇਹ ਕਾਰਵਾਈ ਵਿੱਚ AI ਸੁਰੱਖਿਆ ਲਈ ਅਮਰੀਕੀ ਪਹੁੰਚ ਹੈ।
BotNews.today ਸਮੱਗਰੀ ਦੀ ਖੋਜ, ਲਿਖਣ, ਸੰਪਾਦਨ ਅਤੇ ਅਨੁਵਾਦ ਕਰਨ ਲਈ AI ਟੂਲਸ ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ। ਸਾਡੀ ਟੀਮ ਜਾਣਕਾਰੀ ਨੂੰ ਉਪਯੋਗੀ, ਸਪਸ਼ਟ ਅਤੇ ਭਰੋਸੇਮੰਦ ਰੱਖਣ ਲਈ ਪ੍ਰਕਿਰਿਆ ਦੀ ਸਮੀਖਿਆ ਅਤੇ ਨਿਗਰਾਨੀ ਕਰਦੀ ਹੈ।
ਪਾਲਣਾ ਦੀਆਂ ਲੁਕੀਆਂ ਹੋਈਆਂ ਲਾਗਤਾਂ
ਸਾਨੂੰ ਉਨ੍ਹਾਂ ਮੁਸ਼ਕਲ ਸਵਾਲਾਂ ਨੂੰ ਪੁੱਛਣਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਇੱਕ ਨਿਯੰਤ੍ਰਿਤ ਸੰਸਾਰ ਵਿੱਚ ਅਸਲ ਵਿੱਚ ਕੌਣ ਜਿੱਤਦਾ ਹੈ। ਕੀ ਇੱਕ ਭਾਰੀ ਰੈਗੂਲੇਟਰੀ ਬੋਝ ਅਸਲ ਵਿੱਚ ਜਨਤਾ ਦੀ ਰੱਖਿਆ ਕਰਦਾ ਹੈ, ਜਾਂ ਕੀ ਇਹ ਸਿਰਫ਼ ਮੌਜੂਦਾ ਕੰਪਨੀਆਂ ਦੀ ਰੱਖਿਆ ਕਰਦਾ ਹੈ? ਵੱਡੀਆਂ ਟੈਕ ਫਰਮਾਂ ਕੋਲ ਪਾਲਣਾ ਨੂੰ ਸੰਭਾਲਣ ਲਈ ਸੈਂਕੜੇ ਵਕੀਲਾਂ ਅਤੇ ਇੰਜੀਨੀਅਰਾਂ ਨੂੰ ਨਿਯੁਕਤ ਕਰਨ ਲਈ ਸਰੋਤ ਹਨ। ਗੈਰੇਜ ਵਿੱਚ ਇੱਕ ਛੋਟਾ ਸਟਾਰਟਅੱਪ ਨਹੀਂ ਕਰਦਾ। ਅਸੀਂ ਇੱਕ ਅਜਿਹੀ ਦੁਨੀਆ ਬਣਾਉਣ ਦਾ ਜੋਖਮ ਲੈਂਦੇ ਹਾਂ ਜਿੱਥੇ ਸਿਰਫ਼ ਦਿੱਗਜ ਹੀ ਨਵੀਨਤਾ ਕਰਨ ਦੇ ਸਮਰੱਥ ਹਨ। ਇਸ ਨਾਲ ਘੱਟ ਮੁਕਾਬਲਾ ਅਤੇ ਉਪਭੋਗਤਾਵਾਂ ਲਈ ਉੱਚੀਆਂ ਕੀਮਤਾਂ ਹੋ ਸਕਦੀਆਂ ਹਨ। ਗੋਪਨੀਯਤਾ ਬਨਾਮ ਸੁਰੱਖਿਆ ਦਾ ਸਵਾਲ ਵੀ ਹੈ। ਜਦੋਂ ਸਰਕਾਰਾਂ ਇੱਕ AI ਮਾਡਲ ਦੇ ਅੰਦਰੂਨੀ ਕੰਮਕਾਜ ਤੱਕ ਪਹੁੰਚ ਦੀ ਮੰਗ ਕਰਦੀਆਂ ਹਨ, ਤਾਂ ਉਸ ਡੇਟਾ ਦੀ ਰੱਖਿਆ ਕੌਣ ਕਰ ਰਿਹਾ ਹੈ? ਜੇਕਰ ਕੋਈ ਸਰਕਾਰ ਇਹ ਯਕੀਨੀ ਬਣਾਉਣ ਲਈ ਮਾਡਲ ਦਾ ਆਡਿਟ ਕਰ ਸਕਦੀ ਹੈ ਕਿ ਇਹ ਸੁਰੱਖਿਅਤ ਹੈ, ਤਾਂ ਉਹ ਉਸੇ ਪਹੁੰਚ ਦੀ ਵਰਤੋਂ ਇਹ ਨਿਗਰਾਨੀ ਕਰਨ ਲਈ ਵੀ ਕਰ ਸਕਦੀ ਹੈ ਕਿ ਮਾਡਲ ਆਪਣੇ ਉਪਭੋਗਤਾਵਾਂ ਤੋਂ ਕੀ ਸਿੱਖ ਰਿਹਾ ਹੈ। ਇਹ ਇੱਕ ਅਜਿਹਾ ਵਪਾਰ ਹੈ ਜਿਸ ਬਾਰੇ ਜਨਤਕ ਮੰਚਾਂ ਵਿੱਚ ਘੱਟ ਹੀ ਚਰਚਾ ਕੀਤੀ ਜਾਂਦੀ ਹੈ।
ਸਾਨੂੰ ਨਵੀਨਤਾ ਦੀ ਲੁਕਵੀਂ ਲਾਗਤ ‘ਤੇ ਵੀ ਵਿਚਾਰ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ। ਜੇਕਰ ਹਰ ਨਵੇਂ ਫੀਚਰ ਨੂੰ ਇੱਕ ਲੰਬੀ ਮਨਜ਼ੂਰੀ ਪ੍ਰਕਿਰਿਆ ਵਿੱਚੋਂ ਲੰਘਣਾ ਪੈਂਦਾ ਹੈ, ਤਾਂ ਕੀ ਅਸੀਂ ਉਨ੍ਹਾਂ ਸਫਲਤਾਵਾਂ ਤੋਂ ਖੁੰਝ ਜਾਵਾਂਗੇ ਜੋ ਦਵਾਈ ਵਿੱਚ ਜਾਨਾਂ ਬਚਾ ਸਕਦੀਆਂ ਹਨ ਜਾਂ ਗੁੰਝਲਦਾਰ ਜਲਵਾਯੂ ਮੁੱਦਿਆਂ ਨੂੰ ਹੱਲ ਕਰ ਸਕਦੀਆਂ ਹਨ? ਨਿਯਮਾਂ ਦੀ ਰਗੜ ਇੱਕ ਅਸਲ ਲਾਗਤ ਹੈ। ਸਾਨੂੰ ਇਹ ਜਾਣਨ ਦੀ ਲੋੜ ਹੈ ਕਿ ਕੀ ਜੋ ਸੁਰੱਖਿਆ ਅਸੀਂ ਪ੍ਰਾਪਤ ਕਰਦੇ ਹਾਂ ਉਹ ਉਸ ਤਰੱਕੀ ਦੇ ਬਰਾਬਰ ਹੈ ਜੋ ਅਸੀਂ ਗੁਆ ਦਿੰਦੇ ਹਾਂ। ਲਾਗੂਕਰਨ ਦਾ ਮੁੱਦਾ ਵੀ ਹੈ। ਤੁਸੀਂ ਇੱਕ ਅਜਿਹੇ ਮਾਡਲ ਨੂੰ ਕਿਵੇਂ ਨਿਯੰਤ੍ਰਿਤ ਕਰਦੇ ਹੋ ਜੋ ਇੱਕ ਵਿਕੇਂਦਰੀਕ੍ਰਿਤ ਨੈਟਵਰਕ ‘ਤੇ ਜਾਂ ਕਿਸੇ ਅਜਿਹੇ ਦੇਸ਼ ਵਿੱਚ ਹੋਸਟ ਕੀਤਾ ਗਿਆ ਹੈ ਜੋ ਅੰਤਰਰਾਸ਼ਟਰੀ ਨਿਯਮਾਂ ਨੂੰ ਨਜ਼ਰਅੰਦਾਜ਼ ਕਰਦਾ ਹੈ? ਨਿਯਮ ਸਿਰਫ਼ ਉਨ੍ਹਾਂ ਕੰਪਨੀਆਂ ‘ਤੇ ਲਾਗੂ ਹੋ ਸਕਦੇ ਹਨ ਜੋ ਉਨ੍ਹਾਂ ਦੀ ਪਾਲਣਾ ਕਰਨ ਦੀ ਚੋਣ ਕਰਦੀਆਂ ਹਨ, ਜਿਸ ਨਾਲ ਸਭ ਤੋਂ ਖਤਰਨਾਕ ਅਦਾਕਾਰ ਬਿਨਾਂ ਕਿਸੇ ਨਿਗਰਾਨੀ ਦੇ ਕੰਮ ਕਰਨ ਲਈ ਸੁਤੰਤਰ ਹੋ ਜਾਂਦੇ ਹਨ। ਇਹ ਸੁਰੱਖਿਆ ਦੀ ਇੱਕ ਝੂਠੀ ਭਾਵਨਾ ਪੈਦਾ ਕਰਦਾ ਹੈ। ਅਸੀਂ ਕਾਨੂੰਨ ਮੰਨਣ ਵਾਲੇ ਨਾਗਰਿਕਾਂ ਦੇ ਦੁਆਲੇ ਇੱਕ ਵਾੜ ਬਣਾ ਰਹੇ ਹਾਂ ਜਦੋਂ ਕਿ ਬਾਕੀ ਸਾਰਿਆਂ ਲਈ ਗੇਟ ਖੁੱਲ੍ਹਾ ਰਹਿੰਦਾ ਹੈ। ਇਹ ਉਹ ਸਵਾਲ ਹਨ ਜੋ ਰੈਗੂਲੇਟਰ ਅਕਸਰ ਟਾਲ ਦਿੰਦੇ ਹਨ। ਉਹ ਪ੍ਰਣਾਲੀਗਤ ਜੋਖਮਾਂ ਨੂੰ ਨਜ਼ਰਅੰਦਾਜ਼ ਕਰਦੇ ਹੋਏ ਦਿਖਾਈ ਦੇਣ ਵਾਲੇ ਜੋਖਮਾਂ ‘ਤੇ ਧਿਆਨ ਕੇਂਦ੍ਰਤ ਕਰਦੇ ਹਨ। ਜਿਵੇਂ-ਜਿਵੇਂ ਅਸੀਂ ਅੱਗੇ ਵਧਦੇ ਹਾਂ, ਸਾਨੂੰ ਇਹ ਯਕੀਨੀ ਬਣਾਉਣਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਸਾਡੀ ਸੁਰੱਖਿਆ ਦੀ ਇੱਛਾ ਸਾਨੂੰ ਇੱਕ ਖੁੱਲੇ ਅਤੇ ਪ੍ਰਤੀਯੋਗੀ ਬਾਜ਼ਾਰ ਦੇ ਮੁੱਲ ਤੋਂ ਅੰਨ੍ਹਾ ਨਾ ਕਰ ਦੇਵੇ।
ਕੀ ਤੁਹਾਡੇ ਕੋਲ ਕੋਈ AI ਕਹਾਣੀ, ਟੂਲ, ਰੁਝਾਨ ਜਾਂ ਸਵਾਲ ਹੈ ਜੋ ਤੁਹਾਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਸਾਨੂੰ ਕਵਰ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ? ਸਾਨੂੰ ਆਪਣਾ ਲੇਖ ਦਾ ਵਿਚਾਰ ਭੇਜੋ — ਅਸੀਂ ਇਸਨੂੰ ਸੁਣਨਾ ਪਸੰਦ ਕਰਾਂਗੇ।ਪਾਰਦਰਸ਼ਤਾ ਦਾ ਤਕਨੀਕੀ ਟੋਲ
ਪਾਵਰ ਯੂਜ਼ਰਾਂ ਅਤੇ ਡਿਵੈਲਪਰਾਂ ਲਈ, ਨਵੇਂ ਨਿਯਮ ਖਾਸ ਤਕਨੀਕੀ ਰੁਕਾਵਟਾਂ ਵਿੱਚ ਅਨੁਵਾਦ ਕਰਦੇ ਹਨ। ਸਭ ਤੋਂ ਮਹੱਤਵਪੂਰਨ ਮੈਟ੍ਰਿਕਸ ਵਿੱਚੋਂ ਇੱਕ ਕੰਪਿਊਟ ਥ੍ਰੈਸ਼ਹੋਲਡ ਹੈ। ਅਮਰੀਕੀ ਕਾਰਜਕਾਰੀ ਆਦੇਸ਼ 10 ਦੀ ਪਾਵਰ 26 ਫਲੋਟਿੰਗ ਪੁਆਇੰਟ ਓਪਰੇਸ਼ਨਾਂ ‘ਤੇ ਇੱਕ ਬਾਰ ਨਿਰਧਾਰਤ ਕਰਦਾ ਹੈ। ਇਸ ਤੋਂ ਵੱਧ ਪਾਵਰ ਨਾਲ ਸਿਖਲਾਈ ਪ੍ਰਾਪਤ ਕਿਸੇ ਵੀ ਮਾਡਲ ਦੀ ਰਿਪੋਰਟ ਸਰਕਾਰ ਨੂੰ ਕੀਤੀ ਜਾਣੀ ਚਾਹੀਦੀ ਹੈ। ਇਹ ਡਿਵੈਲਪਰਾਂ ਨੂੰ ਉਨ੍ਹਾਂ ਦੇ ਹਾਰਡਵੇਅਰ ਦੀ ਵਰਤੋਂ ਅਤੇ ਸਿਖਲਾਈ ਦੇ ਰਨ ਦੇ ਵਿਸਤ੍ਰਿਤ ਲੌਗ ਰੱਖਣ ਲਈ ਮਜਬੂਰ ਕਰਦਾ ਹੈ। API ਸੀਮਾਵਾਂ ਵੀ ਨਿਯਮਾਂ ਲਈ ਇੱਕ ਸਾਧਨ ਬਣ ਰਹੀਆਂ ਹਨ। ਗਲਤ ਜਾਣਕਾਰੀ ਦੇ ਪੁੰਜ ਉਤਪਾਦਨ ਨੂੰ ਰੋਕਣ ਲਈ, ਕੁਝ ਖੇਤਰ ਇਸ ਗੱਲ ‘ਤੇ ਸੀਮਾਵਾਂ ‘ਤੇ ਵਿਚਾਰ ਕਰ ਰਹੇ ਹਨ ਕਿ ਇੱਕ ਉਪਭੋਗਤਾ ਇੱਕ ਜਨਰੇਟਿਵ ਮਾਡਲ ਨੂੰ ਕਿੰਨੀਆਂ ਬੇਨਤੀਆਂ ਕਰ ਸਕਦਾ ਹੈ। ਇਹ ਪ੍ਰਭਾਵਿਤ ਕਰਦਾ ਹੈ ਕਿ ਡਿਵੈਲਪਰ ਉਨ੍ਹਾਂ ਮਾਡਲਾਂ ‘ਤੇ ਨਿਰਭਰ ਐਪਲੀਕੇਸ਼ਨਾਂ ਨੂੰ ਕਿਵੇਂ ਬਣਾਉਂਦੇ ਹਨ। ਉਨ੍ਹਾਂ ਨੂੰ ਹੁਣ ਆਪਣੇ ਕੋਡ ਅਤੇ ਆਪਣੇ ਕਾਰੋਬਾਰੀ ਮਾਡਲਾਂ ਵਿੱਚ ਇਨ੍ਹਾਂ ਸੀਮਾਵਾਂ ਲਈ ਖਾਤਾ ਬਣਾਉਣਾ ਚਾਹੀਦਾ ਹੈ। ਸਥਾਨਕ ਸਟੋਰੇਜ ਇੱਕ ਹੋਰ ਵੱਡਾ ਕਾਰਕ ਹੈ। ਕਾਨੂੰਨ ਅਕਸਰ ਮੰਗ ਕਰਦੇ ਹਨ ਕਿ ਨਾਗਰਿਕਾਂ ਬਾਰੇ ਡੇਟਾ ਕੁਝ ਭੂਗੋਲਿਕ ਸੀਮਾਵਾਂ ਦੇ ਅੰਦਰ ਰਹੇ। ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਕੰਪਨੀਆਂ ਹਰ ਜਗ੍ਹਾ ਤੋਂ ਡੇਟਾ ਨੂੰ ਪ੍ਰੋਸੈਸ ਕਰਨ ਲਈ ਸਿਰਫ਼ ਇੱਕ ਕੇਂਦਰੀ ਕਲਾਉਡ ਦੀ ਵਰਤੋਂ ਨਹੀਂ ਕਰ ਸਕਦੀਆਂ। ਉਨ੍ਹਾਂ ਨੂੰ ਸਥਾਨਕ ਡੇਟਾ ਸੈਂਟਰ ਬਣਾਉਣ ਅਤੇ ਬਣਾਈ ਰੱਖਣੇ ਚਾਹੀਦੇ ਹਨ। ਤਕਨੀਕੀ ਲੋੜਾਂ ਵਿੱਚ ਸ਼ਾਮਲ ਹਨ:
- AI ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੀ ਸਮੱਗਰੀ ਦੀ ਪਛਾਣ ਕਰਨ ਲਈ API ਪੱਧਰ ‘ਤੇ ਲਾਜ਼ਮੀ ਵਾਟਰਮਾਰਕਿੰਗ।
- ਡੇਟਾ ਰੈਜ਼ੀਡੈਂਸੀ ਲੋੜਾਂ ਜੋ ਸਥਾਨਕ ਪ੍ਰੋਸੈਸਿੰਗ ਅਤੇ ਸਟੋਰੇਜ ਨੂੰ ਮਜਬੂਰ ਕਰਦੀਆਂ ਹਨ।
- ਕਿਸੇ ਵੀ ਮਾਡਲ ਸਿਖਲਾਈ ਲਈ ਕੰਪਿਊਟ ਲੌਗਿੰਗ ਜੋ 10 ਦੀ ਪਾਵਰ 26 ਫਲੌਪਸ ਥ੍ਰੈਸ਼ਹੋਲਡ ਤੋਂ ਵੱਧ ਹੈ।
- ਵਿਆਖਿਆਯੋਗਤਾ ਪਰਤਾਂ ਜੋ ਮਾਡਲ ਵਜ਼ਨ ਅਤੇ ਫੈਸਲੇ ਦੇ ਮਾਰਗਾਂ ਦੇ ਮਨੁੱਖੀ ਆਡਿਟ ਦੀ ਆਗਿਆ ਦਿੰਦੀਆਂ ਹਨ।
ਏਕੀਕਰਣ ਵਰਕਫਲੋ ਵੀ ਬਦਲ ਰਹੇ ਹਨ। ਡਿਵੈਲਪਰਾਂ ਨੂੰ ਹੁਣ ਪਾਈਪਲਾਈਨ ਦੇ ਹਰ ਪੜਾਅ ‘ਤੇ ਸੁਰੱਖਿਆ ਜਾਂਚਾਂ ਬਣਾਉਣੀਆਂ ਚਾਹੀਦੀਆਂ ਹਨ। ਜੇਕਰ ਤੁਸੀਂ ਇੱਕ ਅਜਿਹਾ ਟੂਲ ਬਣਾ ਰਹੇ ਹੋ ਜੋ ਤੀਜੀ-ਧਿਰ ਦੇ API ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ, ਤਾਂ ਤੁਸੀਂ ਹੁਣ ਜ਼ਿੰਮੇਵਾਰ ਹੋ ਕਿ ਉਹ API ਡੇਟਾ ਨੂੰ ਕਿਵੇਂ ਸੰਭਾਲਦਾ ਹੈ। ਤੁਹਾਨੂੰ ਇਹ ਯਕੀਨੀ ਬਣਾਉਣਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਤੁਹਾਡਾ ਏਕੀਕਰਣ ਪ੍ਰਦਾਤਾ ਦੁਆਰਾ ਨਿਰਧਾਰਤ ਸੁਰੱਖਿਆ ਫਿਲਟਰਾਂ ਨੂੰ ਬਾਈਪਾਸ ਨਾ ਕਰੇ। ਕਾਨੂੰਨ ਦਾ ਗੀਕ ਸੈਕਸ਼ਨ ਉਹ ਹੈ ਜਿੱਥੇ ਅਸਲ ਲੜਾਈਆਂ ਲੜੀਆਂ ਜਾਂਦੀਆਂ ਹਨ। ਇਹ ਲੇਟੈਂਸੀ, ਡੇਟਾ ਰੈਜ਼ੀਡੈਂਸੀ, ਅਤੇ ਮਾਡਲ ਵਜ਼ਨ ਦੇ ਗਣਿਤ ਬਾਰੇ ਹੈ। ਇਹ ਉਹ ਵੇਰਵੇ ਹਨ ਜੋ ਇਹ ਨਿਰਧਾਰਤ ਕਰਦੇ ਹਨ ਕਿ ਕੀ ਕੋਈ ਉਤਪਾਦ ਵਿਵਹਾਰਕ ਹੈ ਜਾਂ ਕੀ ਇਹ ਆਪਣੀ ਪਾਲਣਾ ਦੀਆਂ ਲੋੜਾਂ ਦੇ ਭਾਰ ਹੇਠ ਦੱਬ ਜਾਵੇਗਾ। ਤੁਸੀਂ ਤਕਨੀਕੀ ਨੀਤੀ ਬਾਰੇ ਨਵੀਨਤਮ ਖਬਰਾਂ ਦੀਆਂ ਰਿਪੋਰਟਾਂ ਵਿੱਚ ਇਨ੍ਹਾਂ ਤਕਨੀਕੀ ਤਬਦੀਲੀਆਂ ਬਾਰੇ ਹੋਰ ਵੇਰਵੇ ਲੱਭ ਸਕਦੇ ਹੋ। ਉਨ੍ਹਾਂ ਲਈ ਜੋ ਇਨ੍ਹਾਂ ਤਬਦੀਲੀਆਂ ਤੋਂ ਅੱਗੇ ਰਹਿਣਾ ਚਾਹੁੰਦੇ ਹਨ, AI ਨਿਯਮਾਂ ਵਿੱਚ ਨਵੀਨਤਮ ਵਿਕਾਸ ਦਾ ਪਾਲਣ ਕਰਨਾ ਜ਼ਰੂਰੀ ਹੈ। ਇਨ੍ਹਾਂ ਨਿਯਮਾਂ ਦੀ ਗੁੰਝਲਤਾ ਦਾ ਮਤਲਬ ਹੈ ਕਿ ਡਿਵੈਲਪਰ ਦੀ ਭੂਮਿਕਾ ਕਾਨੂੰਨ ਬਾਰੇ ਓਨੀ ਹੀ ਬਣ ਰਹੀ ਹੈ ਜਿੰਨੀ ਇਹ ਕੋਡ ਬਾਰੇ ਹੈ।
ਅਧੂਰਾ ਕੋਡ
AI ਨੂੰ ਕੰਟਰੋਲ ਕਰਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਇੱਕ ਚੱਲ ਰਿਹਾ ਕੰਮ ਹੈ। ਅਸੀਂ ਕੁੱਲ ਆਜ਼ਾਦੀ ਦੇ ਦੌਰ ਤੋਂ ਪ੍ਰਬੰਧਿਤ ਵਿਕਾਸ ਦੇ ਦੌਰ ਵੱਲ ਵਧ ਰਹੇ ਹਾਂ। ਅੱਜ ਲਿਖੇ ਗਏ ਨਿਯਮ ਅਗਲੇ ਦਹਾਕੇ ਦੀ ਟੈਕਨਾਲੋਜੀ ਨੂੰ ਆਕਾਰ ਦੇਣਗੇ। ਹਾਲਾਂਕਿ, ਸਾਫਟਵੇਅਰ ਦੀ ਗਤੀ ਹਮੇਸ਼ਾ ਕਾਨੂੰਨ ਦੀ ਗਤੀ ਨੂੰ ਪਛਾੜ ਦਿੰਦੀ ਹੈ। ਜਦੋਂ ਤੱਕ ਕੋਈ ਕਾਨੂੰਨ ਪਾਸ ਹੁੰਦਾ ਹੈ, ਟੈਕਨਾਲੋਜੀ ਅਕਸਰ ਕੁਝ ਨਵਾਂ ਕਰਨ ਲਈ ਅੱਗੇ ਵਧ ਚੁੱਕੀ ਹੁੰਦੀ ਹੈ। ਇਹ ਸਾਨੂੰ ਇੱਕ ਜੀਵੰਤ ਸਵਾਲ ਦੇ ਨਾਲ ਛੱਡਦਾ ਹੈ ਜੋ ਇਸ ਵਿਸ਼ੇ ਨੂੰ ਵਿਕਸਤ ਕਰਦਾ ਰਹੇਗਾ: ਕੀ ਇੱਕ ਲੋਕਤੰਤਰੀ ਪ੍ਰਕਿਰਿਆ ਕਦੇ ਵੀ ਇੱਕ ਅਜਿਹੀ ਬੁੱਧੀ ਨੂੰ ਨਿਯੰਤ੍ਰਿਤ ਕਰਨ ਲਈ ਕਾਫ਼ੀ ਤੇਜ਼ ਹੋ ਸਕਦੀ ਹੈ ਜੋ ਆਪਣੇ ਆਪ ਨੂੰ ਦੁਬਾਰਾ ਲਿਖਦੀ ਹੈ? ਫਿਲਹਾਲ, ਫੋਕਸ ਪਾਰਦਰਸ਼ਤਾ ਅਤੇ ਜਵਾਬਦੇਹੀ ‘ਤੇ ਹੈ। ਅਸੀਂ ਇਹ ਯਕੀਨੀ ਬਣਾਉਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰ ਰਹੇ ਹਾਂ ਕਿ ਇਨਸਾਨ ਉਨ੍ਹਾਂ ਮਸ਼ੀਨਾਂ ਦੇ ਇੰਚਾਰਜ ਰਹਿਣ ਜੋ ਉਨ੍ਹਾਂ ਨੇ ਬਣਾਈਆਂ ਹਨ। ਕੀ ਇਹ ਨਿਯਮ AI ਨੂੰ ਸੁਰੱਖਿਅਤ ਬਣਾਉਣਗੇ ਜਾਂ ਸਿਰਫ਼ ਵਧੇਰੇ ਗੁੰਝਲਦਾਰ, ਇਹ ਦੇਖਣਾ ਬਾਕੀ ਹੈ। ਸਿਰਫ ਨਿਸ਼ਚਿਤਤਾ ਇਹ ਹੈ ਕਿ ਗੈਰ-ਨਿਯੰਤ੍ਰਿਤ ਐਲਗੋਰਿਦਮ ਦਾ ਯੁੱਗ ਖਤਮ ਹੋ ਗਿਆ ਹੈ। ਇਹ 2024 ਅਤੇ ਇਸ ਤੋਂ ਬਾਅਦ ਦੀ ਹਕੀਕਤ ਹੈ।
편집자 주: 저희는 컴퓨터 전문가가 아니지만 인공지능을 이해하고, 더 자신감 있게 사용하며, 이미 다가오고 있는 미래를 따라가고 싶은 사람들을 위한 다국어 AI 뉴스 및 가이드 허브로 이 사이트를 만들었습니다.
ਕੋਈ ਗਲਤੀ ਮਿਲੀ ਜਾਂ ਕੁਝ ਠੀਕ ਕਰਨ ਦੀ ਲੋੜ ਹੈ? ਸਾਨੂੰ ਦੱਸੋ।