Риски LLM. Или в более общей форме - контента, генерируемого AI
Поиск аномалий в табличных данных с помощью LLM
См. также другие публикации, посвященные LLM
технические проблемы и идеи, родившиеся в бурных водах реки Abava (а равно как и на ее берегах, далеких и близких), выставленные на всеобщее обсуждение
Риски LLM. Или в более общей форме - контента, генерируемого AI
Поиск аномалий в табличных данных с помощью LLM
См. также другие публикации, посвященные LLM
См. также другие публикации, посвященные LLM
A: A model inversion attack is a type of security threat that involves using machine learning models to extract sensitive information from their inputs or outputs. To prevent such attacks, there are several techniques and best practices that can be implemented:
Regularization: This technique helps reduce overfitting by adding regularization terms during training, which limits the capacity of the model to memorize specific patterns in the data. As a result, the model will generalize better and be less prone to model inversion attacks.
Data masking/obfuscation: One way to prevent leakage of sensitive information through the ML model’s output is to pre-process the input or obfuscate the output data to make it difficult for an adversary to reverse engineer the original data. Techniques like noise injection, image blurring, feature deletion, and permutation can help protect against potential attacks.
Access control: Limiting access to the ML model and its outputs can significantly reduce the risk of exposure of sensitive information. Implement strict authentication and authorization controls around access to trained ML models as well as any APIs or interfaces used to interact with them.
Detection mechanisms: Develop mechanisms to detect, alert and block malicious activities related to inversion attacks. Monitor usage logs and apply statistical analysis, anomaly detection algorithms, or other methods to identify suspicious behavior, IP addresses, and user agents associated with inversion attempts.
Q: Adversarial attack on ML model. How to use topology for protection?
A: Topology refers to the structure, arrangement, or organization of elements in a system. In the context of Machine Learning (ML) models, topology can refer to the architecture of the neural network or the relationships between different components within the model. Here are some ways you could leverage topology for the purpose of defending against adversarial attacks:
Architecture design: The choice of the ML model architecture and the number of layers, neurons per layer, and activation functions has a significant impact on model robustness. By selecting architectures that have demonstrated strong robustness against adversarial attacks, you may achieve greater defense capabilities. For example, ResNet and EfficientNet families of convolutional networks have shown good performance under various types of adversarial attack.
Diversity: Introduce diversity into the model, either by having multiple models, each trained on slightly different subsets of the dataset, or varying parameters such as weight initializations, batch normalization scale/shift settings, dropout rates etc. An attacker would need to craft inputs effective for all versions, so this increases attack effort, reduces effectiveness of mass-produced attacks, and allows time for human intervention. Ensemble methods combining predictions across diverse models also tend to produce higher quality results than single models.
Интересно ! :) Отвечал - HuggingChat
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Темы:
Social network analysis applied to communication networks (Online/Offline SN, Internet of Vehicles, Internet of Things, etc.)
Security, privacy and trust issues in Social Internet of Anythings
Connectivity management ruled by social features
Machine learning for Big Data analytics in social Internet of Anythings
Integration of social aspects in traditional ad-hoc networks
Small-world theory applied to Social Internet of Anythings
Cross-layer design of communication networks and social networks
Epidemic social network analysis for pandemic contention
Social networking for contact tracing, location and tracking
Social Data and multimedia communication and privacy
Infrastructure, platform, protocol design, and optimization for mobile social networks, mobile social clouds, and social Internet-of-Things with Artificial Intelligence
Social-aware network solutions and social network influence on (wireless) communications systems
Architectures and Protocols for Blockchain-based social media platforms
Наши работы по сетевой пространственной близости очень хорошо вписываются в эту тематику.
см. также другие публикации по теме двойники
Проблемы безопасности в повсеместных вычислениях: Ubiquitous Security
Интересное замечание: "Хотя проверка фактов с помощью систем естественного языка стали популярными в последние годы, языковые модели обычно обучаются на статических снимках данных без постоянных обновлений с течением времени, и им не хватает контекста реального мира, который люди, проверяющие факты, могут легко получить и использовать для проверки достоверности утверждений. Исследователи Технического университета Дармштадта и IBM проанализировали существующие наборы данных для проверки фактов выявлены недостатки систем проверки фактов, построенных на основе этих наборов данных. Например, автоматизированные системы проверки фактов часто предполагают наличие противоречивых контрдоказательств для новых ложных утверждений, но для проверки новых утверждений, как истинных так и ложных, часто нет доказательства наличия или отсутствия противоречия."
Иными словами, факт отвергается, если в датасете есть противоречивое утверждение. А если такого нет? Пример из отчета - утверждение "Чтобы создать вакцину от COVID-19, можно убить миллион акул". Это не будет опровергнуто, посокльку нет обратного утверждения. Тогда как человек модет проверить информацию о вакцине.